Sökning: "transformatorer"

Visar resultat 11 - 15 av 129 uppsatser innehållade ordet transformatorer.

  1. 11. Kvalitetskritiskt material : En fallstudie på Hitachi Energy Power Transformers

    Kandidat-uppsats, Högskolan i Gävle/Industriell ekonomi

    Författare :Jenny Lindblad; Emilia Selander; [2023]
    Nyckelord :Quality; Quality critical material; Quality deficiency cost; Hidden quality deficiency cost; Quality deviation; Deviation report; Kvalitet; Kvalitetskritiskt material; kvalitetsbristkostnad; dolda kvalitetsbristkostnader; kvalitetsavvikelse; avvikelserapportering;

    Sammanfattning : Under de senaste åren har en betydande ökning av elförbrukningen rapporterats. Som en följd av detta ökar efterfrågan på produkter och komponenter relaterade till elnätet på marknaden. Hur industrier samtidigt säkerställer produktkvalitet och kontrollerar tillverkningskostnader är uppenbart viktigt för de relevanta branscherna. LÄS MER

  2. 12. Transformer-Based Multi-scale Technical Reports Analyser for Science Projects Cost Prediction

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Thomas Bouquet; [2023]
    Nyckelord :Natural Language Processing; Transformers; Deep Learning; Cost Prediction; Traitement Automatique du Langage; Transformers; Apprentissage Profond; Prédiction de coûts; Behandling av naturligt språk; Transformers; Djupinlärning; Kostnadsförutsägelser;

    Sammanfattning : Intrinsic value prediction is a Natural Language Processing (NLP) problem consisting in determining a numerical value contained implicitly and non-trivially in a text. In this project, we introduce the SWORDSMAN model (Sentence and Word-level Oracle for Research Documents by Semantic Multi-scale ANalysis), a deep neural network architecture based on transformers whose goal is to predict the cost of research projects from the analysis of their abstract. LÄS MER

  3. 13. Evaluating and comparing different key phrase-based web scraping methods for training domain-specific fasttext models

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Love Book; [2023]
    Nyckelord :Machine Learning; Natural Language Processing; Word2vec; fasttext; KeyBERT; Web scraping; Transformers; Embeddings.; Maskininlärning; språkteknologi; Word2vec; fasttext; KeyBERT; Webbskrapning; Transformatorer; Inbäddningar.;

    Sammanfattning : The demand for automation of simple tasks is constantly increasing. While some tasks are easy to automate because the logic is fixed and the process is streamlined, other tasks are harder because the performance of the task is heavily reliant on the judgment of a human expert. LÄS MER

  4. 14. Coincidence Factor and Battery Energy Storage Systems for Industrial Electrical Power Supply : A Field Study of Building 178 at Scania AB, Södertälje

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Lucas Wallhager; [2023]
    Nyckelord :Coincidence factor; Industrial electric load diversity; Velander; Normal distribution; Herman-Beta; Battery energy storage system; Sammanlagringsfaktor; Industriell elförbrukning; Velander; Herman-Beta; Batterier för energilagring;

    Sammanfattning : Coincidence factors have been researched since the late 1800s, as they displays the ratio between the maximum coincidencental power usage of a system, and the sum of the maximum individual loads of the system. Accurate estimations of the highest coincidental power usage allow for minimal material usage when constructing substations, transformers, overhead lines, and cables for power transmission. LÄS MER

  5. 15. Exploring toxic lexicon similarity methods with the DRG framework on the toxic style transfer task

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Martin Iglesias; [2023]
    Nyckelord :Detoxifcation; Text style transfer; Deep learning; Transformers; Linguistics; Natural Language Processing; Hate speech; Text style-conditional generation; Large language model; Avgiftning; Överföring av textstil; Djupinlärning; Transformatorer; Lingvistik; Naturlig språkbehandling; Hatprat; Textstil - villkorlig generering; Stor språkmodell;

    Sammanfattning : The topic of this thesis is the detoxification of language in social networks with a particular focus on style transfer techniques that combine deep learning and linguistic resources. In today’s digital landscape, social networks are rife with communication that can often be toxic, either intentionally or unintentionally. LÄS MER