Sökning: "Flerspråkiga modeller"
Visar resultat 1 - 5 av 15 uppsatser innehållade orden Flerspråkiga modeller.
1. Topological regularization and relative latent representations
Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)Sammanfattning : This Master's Thesis delves into the application of topological regularization techniques and relative latent representations within the realm of zero-shot model stitching. Building upon the prior work of Moschella et al. LÄS MER
2. Exploring Cross-Lingual Transfer Learning for Swedish Named Entity Recognition : Fine-tuning of English and Multilingual Pre-trained Models
Kandidat-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)Sammanfattning : Named Entity Recognition (NER) is a critical task in Natural Language Processing (NLP), and recent advancements in language model pre-training have significantly improved its performance. However, this improvement is not universally applicable due to a lack of large pre-training datasets or computational budget for smaller languages. LÄS MER
3. Distilling Multilingual Transformer Models for Efficient Document Retrieval : Distilling multi-Transformer models with distillation losses involving multi-Transformer interactions
Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)Sammanfattning : Open Domain Question Answering (OpenQA) is a task concerning automatically finding answers to a query from a given set of documents. Language-agnostic OpenQA is an increasingly important research area in the globalised world, where the answers can be in a different language from the question. LÄS MER
4. Transspråkande synsätt på gymnasiet : Flerspråkighet som resurs i svenskundervisningen
Uppsats för yrkesexamina på avancerad nivå, Högskolan i Gävle/Avdelningen för humanioraSammanfattning : Tanken med transspråkande synsätt i undervisningen är att den flerspråkiga individen ska få möjlighet att använda hela sin språkliga repertoar för att stödja en positiv språk- och kunskapsutveckling. I dagens klassrum är det få elever som är, och upplever sig vara, helt enspråkiga. LÄS MER
5. Task-agnostic knowledge distillation of mBERT to Swedish
Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)Sammanfattning : Large transformer models have shown great performance in multiple natural language processing tasks. However, slow inference, strong dependency on powerful hardware, and large energy consumption limit their availability. LÄS MER