Sökning: "Transformatorbaserad förtränad språkmodell"

Hittade 1 uppsats innehållade orden Transformatorbaserad förtränad språkmodell.

  1. 1. Smart Auto-completion in Live Chat Utilizing the Power of T5

    Master-uppsats, KTH/Skolan för elektroteknik och datavetenskap (EECS)

    Författare :Zhanpeng Wang; [2021]
    Nyckelord :Natural Language Processing; Natural Language Generation; T5; Sequence-to- sequence; Auto-completion; Transformer-based Pre-trained Language Model; Naturlig språkbehandling; Generering av naturligt språk; T5; Sekvens-tillsekvens; Automatkomplettering; Transformatorbaserad förtränad språkmodell;

    Sammanfattning : Auto-completion is a task that requires an algorithm to give suggestions for completing sentences. Specifically, the history of live chat and the words already typed by the agents are provided to the algorithm for outputting the suggestions to finish the sentences. LÄS MER