Sökning: "semantisk textlikhet"

Hittade 3 uppsatser innehållade orden semantisk textlikhet.

  1. 1. Metod för ett automatiserat frågebesvarande i det svenska språket

    M1-uppsats, KTH/Hälsoinformatik och logistik

    Författare :Kristian Penna; [2023]
    Nyckelord :question answering; natural language processing; artificial intelligence; machine learning; deep learning; artificial neural networks; transformer; BERT; sentence transformers; semantic textual similarity; frågebesvarande; språkteknologi; artificiell intelligens; maskininlärning; djupinlärning; artificiella neurala nätverk; transformer; BERT; sentence transformers; semantisk textlikhet;

    Sammanfattning : I ärendehanteringssystem utgör avslutade ärenden en värdefull datamängd bestående av par av frågor och svar som organisationer med rätt metoder kan dra nytta av för att utvinna fördelar. I denna studie har en Sentence Transformers-modell blivit finjusterad för question answering som tillsammans med en datamängd från ett ärendehanteringssystem automatiskt kan besvara organisationsspecifika frågor i det svenska språket. LÄS MER

  2. 2. Evaluation of Sentence Representations in Semantic Text Similarity Tasks

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Nils Balzar Ekenbäck; [2021]
    Nyckelord :sentence representations; semantic text similarity; sentence simi-larity; word embeddings; sentence embeddings; meningsrepresentation; semantisk textlikhet; meningslikhet; or-dinbäddningar; meningsinbäddningar;

    Sammanfattning : This thesis explores the methods of representing sentence representations for semantic text similarity using word embeddings and benchmarks them against sentence based evaluation test sets. Two methods were used to evaluate the representations: STS Benchmark and STS Benchmark converted to a binary similarity task. LÄS MER

  3. 3. Improving Multilingual Models for the Swedish Language : Exploring CrossLingual Transferability and Stereotypical Biases

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Styliani Katsarou; [2021]
    Nyckelord :Deep Learning; Natural Language Processing; Transformers; Multilingual Models; Cross-Lingual Transfer; Stereotypical Biases;

    Sammanfattning : The best performing Transformer-based Language Models are monolingual and mainly focus on high-resource languages such as English. In an attempt to extend their usage to more languages, multilingual models have been introduced. LÄS MER