Sökning: "språkmodell"
Visar resultat 1 - 5 av 50 uppsatser innehållade ordet språkmodell.
1. Topological regularization and relative latent representations
Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)Sammanfattning : This Master's Thesis delves into the application of topological regularization techniques and relative latent representations within the realm of zero-shot model stitching. Building upon the prior work of Moschella et al. LÄS MER
2. Domain Knowledge and Representation Learning for Centroid Initialization in Text Clustering with k-Means : An exploratory study
Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)Sammanfattning : Text clustering is a problem where texts are partitioned into homogeneous clusters, such as partitioning them based on their sentiment value. Two techniques to address the problem are representation learning, in particular language representation models, and clustering algorithms. LÄS MER
3. Language Models as Evaluators : A Novel Framework for Automatic Evaluation of News Article Summaries
Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)Sammanfattning : The advancements in abstractive summarization using Large Language Models (LLMs) have brought with it new challenges in evaluating the quality and faithfulness of generated summaries. This thesis explores a human-like automated method for evaluating news article summaries. LÄS MER
4. Kan AI agera journalist? : En undersökning av GPT-4:s förmåga att generera nyhetsartiklar
Kandidat-uppsats, Södertörns högskola/Institutionen för samhällsvetenskaperSammanfattning : Den här uppsatsen undersöker artificiell intelligens (AI):s förmåga att producera nyhetsartiklar, vad bristerna och styrkorna med AI-genererade artiklar är samt vilka etiska problem som finns med att implementera AI i journalistiska processer. Mer specifikt har GPT-4, som i skrivande stund är en ny men kraftig språkmodell, använts för att generera artiklarna som undersökts. LÄS MER
5. Efficient Sentiment Analysis and Topic Modeling in NLP using Knowledge Distillation and Transfer Learning
Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)Sammanfattning : This abstract presents a study in which knowledge distillation techniques were applied to a Large Language Model (LLM) to create smaller, more efficient models without sacrificing performance. Three configurations of the RoBERTa model were selected as ”student” models to gain knowledge from a pre-trained ”teacher” model. LÄS MER