Sökning: "pre-trained models"

Visar resultat 1 - 5 av 197 uppsatser innehållade orden pre-trained models.

  1. 1. An In-Depth study on the Utilization of Large Language Models for Test Case Generation

    Master-uppsats, Umeå universitet/Institutionen för datavetenskap

    Författare :Nicole Johnsson; [2024]
    Nyckelord :Large Language Models; Test Case Generation; Retrieval Augmented Generation; Machine Learning; Generative AI;

    Sammanfattning : This study investigates the utilization of Large Language Models for Test Case Generation. The study uses the Large Language model and Embedding model provided by Llama, specifically Llama2 of size 7B, to generate test cases given a defined input. LÄS MER

  2. 2. Self-Supervised Learning for Tabular Data: Analysing VIME and introducing Mix Encoder

    Kandidat-uppsats, Lunds universitet/Fysiska institutionen

    Författare :Max Svensson; [2024]
    Nyckelord :Machine Learning; Self-supervised learning; AI; Physics; Medicine; Physics and Astronomy;

    Sammanfattning : We introduce Mix Encoder, a novel self-supervised learning framework for deep tabular data models based on Mixup [1]. Mix Encoder uses linear interpolations of samples with associated pretext tasks to form useful pre-trained representations. LÄS MER

  3. 3. En undersökning av metoder förautomatiserad text ochparameterextraktion frånPDF-dokument med NaturalLanguage Processing

    M1-uppsats, KTH/Hälsoinformatik och logistik

    Författare :Alexander Värling; Emil Hultgren; [2024]
    Nyckelord :portable document format; faktura; digitalisering; IT-lösningar; optisk teckenigenkänning; textextraktion; naturlig språkbehandling; generative pre-trained transformer; portable document format; faktura; digitalisering; IT-lösningar; optisk teckenigenkänning; textextraktion; naturlig språkbehandling; generative pre-trained transformer;

    Sammanfattning : I dagens affärsmiljö strävar många organisationer efter att automatisera processen för att hämta information från fakturor. Målet är att göra hanteringen av stora mängder fakturor mer effektiv. Trots detta möter man utmaningar på grund av den varierande strukturen hos fakturor. LÄS MER

  4. 4. Exploring the Depth-Performance Trade-Off : Applying Torch Pruning to YOLOv8 Models for Semantic Segmentation Tasks

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Xinchen Wang; [2024]
    Nyckelord :Deep Learning; Semantic segmentation; Network optimization; Network pruning; Torch Pruning; YOLOv8; Network Depth; Djup lärning; Semantisk segmentering; Nätverksoptimering; Nätverksbeskärning; Fackelbeskärning; YOLOv8; Nätverksdjup;

    Sammanfattning : In order to comprehend the environments from different aspects, a large variety of computer vision methods are developed to detect objects, classify objects or even segment them semantically. Semantic segmentation is growing in significance due to its broad applications in fields such as robotics, environmental understanding for virtual or augmented reality, and autonomous driving. LÄS MER

  5. 5. Key Sentence Extraction From CRISPR-Cas9 Articles Using Sentence Transformers

    Master-uppsats, Göteborgs universitet/Institutionen för data- och informationsteknik

    Författare :Sandra Henningsson; Brage Stranden Lae; [2023-11-09]
    Nyckelord :NLP; Transformers; CRISPR; semantic search; keyphrase extraction;

    Sammanfattning : The annotation of CRISPR-related articles and extraction of key content has traditionally relied on manual efforts. Manual annotation is error-prone and timeconsuming. This thesis presents an alternative approach using transfer learning and pre-trained models based on the Transformer architecture. LÄS MER