• English
    • Latviešu
    • Deutsch
    • русский
  • Help
  • Deutsch 
    • English
    • Latviešu
    • Deutsch
    • русский
  • Einloggen
Dokumentanzeige 
  •   DSpace Startseite
  • B4 – LU fakultātes / Faculties of the UL
  • A -- Eksakto zinātņu un tehnoloģiju fakultāte / Faculty of Science and Technology
  • Bakalaura un maģistra darbi (EZTF) / Bachelor's and Master's theses
  • Dokumentanzeige
  •   DSpace Startseite
  • B4 – LU fakultātes / Faculties of the UL
  • A -- Eksakto zinātņu un tehnoloģiju fakultāte / Faculty of Science and Technology
  • Bakalaura un maģistra darbi (EZTF) / Bachelor's and Master's theses
  • Dokumentanzeige
JavaScript is disabled for your browser. Some features of this site may not work without it.

Lielo valodas modeļu pielāgošana latviešu valodai

Thumbnail
Öffnen
302-107953-Baumanis_Rolands_rb20039.pdf (952.2Kb)
Autor
Baumanis, Rolands
Co-author
Latvijas Universitāte. Eksakto zinātņu un tehnoloģiju fakultāte
Advisor
Skadiņa, Inguna
Datum
2025
Metadata
Zur Langanzeige
Zusammenfassung
Lielie valodu modeļi tiek primāri apmācīti ar angļu vai citu plaši izmantotu valodu datiem, kuru dēļ to darbība mazāku resursu valodās, kā latviešu valodā, tiek novērtēta zemāk nekā sākotnēji apmācītajās valodās. Šī darba mērķis ir noskaidrot lielo valodu modeļu apmācības veidus un veikt modeļu pielāgošanu latviešu valodai. Izmantojot latviešu valodā mašīntulkotu Alpaca instrukciju kopu, tika veikta instrukciju pielāgošana Llama 3.1 un Mistral modeļiem, pēc kuras tika veikta pielāgoto modeļu salīdzināšana ar pamata modeļu darbību. Pielāgoto modeļu rezultāti latviešu valodas bezpiemēru ģenerēšanā un teksta saprašanā bija augstāki par pamata modeļu rezultātiem, kas liecina par instrukciju pielāgošanu kā efektīvu metodi, lai uzlabotu mazāku resursu valodu saprašanu.
 
Large language models are primarily trained on English or other frequently used language data which give them lower results on their performance for low resource languages like Latvian when compared with the pretrained language. The aim of this master’s thesis is to research about the different large language model training methods and to fine-tune a language model for Latvian. The Llama 3.1 and Mistral models were instruction tuned on a Latvian machine translated Alpaca instruction set. When the fine-tuning was finished, both models were compared with their baseline models and evaluated on their performance. The Latvian fine-tuned models demonstrated better results on zero-shot generation and reading comprehension than their base models which shows instruction fine-tuning as an effective method for improving the comprehension of low resource languages.
 
URI
https://dspace.lu.lv/dspace/handle/7/71081
Collections
  • Bakalaura un maģistra darbi (EZTF) / Bachelor's and Master's theses [6025]

University of Latvia
Kontakt | Feedback abschicken
Theme by 
@mire NV
 

 

Stöbern

Gesamter BestandBereiche & SammlungenErscheinungsdatumAutorenTitelnSchlagwortenDiese SammlungErscheinungsdatumAutorenTitelnSchlagworten

Mein Benutzerkonto

Einloggen

Statistik

Benutzungsstatistik

University of Latvia
Kontakt | Feedback abschicken
Theme by 
@mire NV