Sökning: "self-training"

Visar resultat 1 - 5 av 13 uppsatser innehållade ordet self-training.

  1. 1. Patienters upplevelse av aktiv träning med inspiration från VASA-konceptet för att förebygga eller minska hemiparetisk skuldersmärta efter stroke.

    Magister-uppsats, Uppsala universitet/Fysioterapi

    Författare :Johanna Sjögren; [2023]
    Nyckelord :Patienters upplevelser – Aktiv träning - Strokerelaterad skuldersmärta  – Strokerehabilitering;

    Sammanfattning : Bakgrund Hemiparetisk skuldersmärta (HPS) efter stroke är vanligt med en prevalens mellan 22-47%. I nuläget finns ingen optimal behandling för HPS och de nationella riktlinjerna rekommenderar stödjande hjälpmedel som behandling trots att patienter beskrivit dessa som negativa. Därför föreslås en mer aktiv behandling mot HPS. LÄS MER

  2. 2. Semi-Supervised Domain Adaptation for Semantic Segmentation with Consistency Regularization : A learning framework under scarce dense labels

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Daniel Morales Brotons; [2023]
    Nyckelord :Domain Adaptation; Semi-Supervised Learning; Semi-Supervised Domain Adaptation; Semantic Segmentation; Consistency Regularization; Domain Adaptation; Semi-Supervised Learning; Semi-Supervised Domain Adaptation; Semantisk Segmentering; Konsistensregularisering;

    Sammanfattning : Learning from unlabeled data is a topic of critical significance in machine learning, as the large datasets required to train ever-growing models are costly and impractical to annotate. Semi-Supervised Learning (SSL) methods aim to learn from a few labels and a large unlabeled dataset. LÄS MER

  3. 3. Using Semi-Supervised Learning for Email Classification

    Master-uppsats, KTH/Matematik (Avd.)

    Författare :Anders Inde; [2022]
    Nyckelord :applied mathematics; semi-supervised learning; self-training; doc2vec; classification; tillämpad matematik; semi-vägledd inlärning; self-training; doc2vec; klassificering;

    Sammanfattning : In this thesis, we investigate the use of self-training, a semi-supervised learning method, to improve binary classification of text documents. This means making use of unlabeled samples, since labeled samples can be expensive to generate. More specifically, we want to classify emails that are retrieved by Skandinaviska Enskilda Banken (SEB). LÄS MER

  4. 4. Improving a Few-shot Named Entity Recognition Model Using Data Augmentation

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :David Mellin; [2022]
    Nyckelord :Named Entity Recognition; Data Augmentation; Self-training; BERT; Few-shot Learning; Identifiering av namngivna entiteter; Datautökning; Självträning; BERT; Fåförsöksinlärning;

    Sammanfattning : To label words of interest into a predefined set of named entities have traditionally required a large amount of labeled in-domain data. Recently, the availability of pre-trained transformer-based language models have enabled multiple natural language processing problems to utilize transfer learning techniques to construct machine learning models with less task-specific labeled data. LÄS MER

  5. 5. Deep Ensembles for Self-Training in NLP

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Axel Alness Borg; [2022]
    Nyckelord :Self-training; Semi-Supervised Learning; Natural Language Processing; Ensembles; Transformers; Knowledge Distillation; Självträning; Semi-Övervakad Inlärning; Datalingvistik; Ensembler; Transformers; Kunskaps Destillering;

    Sammanfattning : With the development of deep learning methods the requirement of having access to large amounts of data has increased. In this study, we have looked at methods for leveraging unlabeled data while only having access to small amounts of labeled data, which is common in real-world scenarios. LÄS MER