Sökning: "Fine-Tuned BERT"

Visar resultat 1 - 5 av 51 uppsatser innehållade orden Fine-Tuned BERT.

  1. 1. Approximating Reasoning with Transformer Language Models

    Master-uppsats, Göteborgs universitet/Institutionen för data- och informationsteknik

    Författare :Daniel Enström; Viktor Kjellberg; [2023-10-19]
    Nyckelord :natural language processing; nlp; automated reasoning; logic; inference; machine learning; transformers; language models; BERT; BART;

    Sammanfattning : We conduct experiments with BART, a generative language-model architecture, to investigate its capabilities for approximating reasoning by learning from data. For this we use the SimpleLogic dataset, a dataset of satisfiability problems in propositional logic originally created by Zhang et al. (2022). LÄS MER

  2. 2. Performance Benchmarking and Cost Analysis of Machine Learning Techniques : An Investigation into Traditional and State-Of-The-Art Models in Business Operations

    Kandidat-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Jacob Lundgren; Sam Taheri; [2023]
    Nyckelord :Artificial Intelligence AI ; Machine Learning; Big Data; Natural Language Processing NLP ; Pre-Trained BERT; Fine-Tuned BERT; TF-IDF; Logistic Regression; Support Vector Machine SVM ; Cloud GPU; Operating Costs; Performance Efficiency; Business Intelligence;

    Sammanfattning : Eftersom samhället blir allt mer datadrivet revolutionerar användningen av AI och maskininlärning sättet företag fungerar och utvecklas på. Denna studie utforskar användningen av AI, Big Data och Natural Language Processing (NLP) för att förbättra affärsverksamhet och intelligens i företag. LÄS MER

  3. 3. Punctuation Restoration as Post-processing Step for Swedish Language Automatic Speech Recognition

    Magister-uppsats, Luleå tekniska universitet/Institutionen för system- och rymdteknik

    Författare :Ishika Gupta; [2023]
    Nyckelord :Transformer; BERT; KB-BERT; NLP; punctuation restoration; deep learning; neural networks;

    Sammanfattning : This thesis focuses on the Swedish language, where punctuation restoration, especially as a postprocessing step for the output of Automatic Speech Recognition (ASR) applications, needs furtherresearch. I have collaborated with NewsMachine AB, a company that provides large-scale mediamonitoring services for its clients, for which it employs ASR technology to convert spoken contentinto text. LÄS MER

  4. 4. Metod för ett automatiserat frågebesvarande i det svenska språket

    M1-uppsats, KTH/Hälsoinformatik och logistik

    Författare :Kristian Penna; [2023]
    Nyckelord :question answering; natural language processing; artificial intelligence; machine learning; deep learning; artificial neural networks; transformer; BERT; sentence transformers; semantic textual similarity; frågebesvarande; språkteknologi; artificiell intelligens; maskininlärning; djupinlärning; artificiella neurala nätverk; transformer; BERT; sentence transformers; semantisk textlikhet;

    Sammanfattning : I ärendehanteringssystem utgör avslutade ärenden en värdefull datamängd bestående av par av frågor och svar som organisationer med rätt metoder kan dra nytta av för att utvinna fördelar. I denna studie har en Sentence Transformers-modell blivit finjusterad för question answering som tillsammans med en datamängd från ett ärendehanteringssystem automatiskt kan besvara organisationsspecifika frågor i det svenska språket. LÄS MER

  5. 5. Context-aware Swedish Lexical Simplification : Using pre-trained language models to propose contextually fitting synonyms

    Kandidat-uppsats, Linköpings universitet/Institutionen för datavetenskap

    Författare :Emil Graichen; [2023]
    Nyckelord :automatic text simplification; lexical simplification; Swedish; BERT; GPT-3; evaluation dataset; synonymy;

    Sammanfattning : This thesis presents the development and evaluation of context-aware Lexical Simplification (LS) systems for the Swedish language. In total three versions of LS models, LäsBERT, LäsBERT-baseline, and LäsGPT, were created and evaluated on a newly constructed Swedish LS evaluation dataset. LÄS MER