Sökning: "Självuppmärksamhet"

Hittade 5 uppsatser innehållade ordet Självuppmärksamhet.

  1. 1. Using Machine Learning to Optimize Near-Earth Object Sighting Data at the Golden Ears Observatory

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Laura Murphy; [2023]
    Nyckelord :Near-Earth Object Detection; Machine Learning; Deep Learning; Visual Transformers;

    Sammanfattning : This research project focuses on improving Near-Earth Object (NEO) detection using advanced machine learning techniques, particularly Vision Transformers (ViTs). The study addresses challenges such as noise, limited data, and class imbalance. LÄS MER

  2. 2. Evaluating Text Summarization Models on Resumes : Investigating the Quality of Generated Resume Summaries and their Suitability as Resume Introductions

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Amanda Krohn; [2023]
    Nyckelord :Natural language processing; Abstractive text summarization; Transformer architecture; Fine-tuning; Resumes; Språkteknologi; Abstrakt textsammanfattning; Transformer-arkitektur; Finjustering; CV;

    Sammanfattning : This thesis aims to evaluate different abstractive text summarization models and techniques for summarizing resumes. It has two main objectives: investigate the models’ performance on resume summarization and assess the suitability of the generated summaries as resume introductions. LÄS MER

  3. 3. Attention based Knowledge Tracing in a language learning setting

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Sebastiaan Vergunst; [2022]
    Nyckelord :Knowledge Tracing; Exercise Recommendation; Personalised Learning; Recurrent Neural Network; Attention; Self-Attention; Exercise Embedding; Kunskapsspårning; Övningsrekommendation; Personligt Anpassad Inlärning; Rekurrenta Neurala Nätverk; Uppmärksamhet; Självuppmärksamhet; Övningsembedding;

    Sammanfattning : Knowledge Tracing aims to predict future performance of users of learning platforms based on historical data, by modeling their knowledge state. In this task, the target is a binary variable representing the correctness of the exercise, where an exercise is a word uttered by the user. LÄS MER

  4. 4. Using Bidirectional Encoder Representations from Transformers for Conversational Machine Comprehension

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Evangelina Gogoulou; [2019]
    Nyckelord :conversational machine comprehension; question answering; transformers; self-attention; language modelling; samtalsmaskinförståelse; frågesvar; transformatorer; självuppmärksamhet; språkmodellering;

    Sammanfattning : Bidirectional Encoder Representations from Transformers (BERT) is a recently proposed language representation model, designed to pre-train deep bidirectional representations, with the goal of extracting context-sensitive features from an input text [1]. One of the challenging problems in the field of Natural Language Processing is Conversational Machine Comprehension (CMC). LÄS MER

  5. 5. Socialpsykologisk vy på självet : En kvantitativ analys av personlighet och identitetsutveckling

    Kandidat-uppsats, Högskolan i Skövde/Institutionen för hälsa och lärande

    Författare :Raber Hamad; [2018]
    Nyckelord :HEXACO; personality; DIDS; identity facets; affects; Personlighet; identitet; identitetsutveckling; självet; HEXACO; DIDS; femfaktorteorin; självet; psykologi; sociologi; personlighetspsykologi; socialpsykologi;

    Sammanfattning : Syftet med denna studie var att undersöka de individuella skillnaderna i hur personlighet påverkar identitetsutvecklingen. ”Honesty-humility (H), Emotionality (E), Extraversion (X), Agreeableness versus Anger (A), Conscientiousness (C) och Openess to Experience (O)” förkortas till HEXACO och används för att definiera personlighet. LÄS MER