Показать сокращенную информацию

dc.contributor.advisorSkadiņa, Inguna
dc.contributor.authorBaumanis, Rolands
dc.contributor.otherLatvijas Universitāte. Eksakto zinātņu un tehnoloģiju fakultāte
dc.date.accessioned2025-06-28T01:06:37Z
dc.date.available2025-06-28T01:06:37Z
dc.date.issued2025
dc.identifier.other107953
dc.identifier.urihttps://dspace.lu.lv/dspace/handle/7/71081
dc.description.abstractLielie valodu modeļi tiek primāri apmācīti ar angļu vai citu plaši izmantotu valodu datiem, kuru dēļ to darbība mazāku resursu valodās, kā latviešu valodā, tiek novērtēta zemāk nekā sākotnēji apmācītajās valodās. Šī darba mērķis ir noskaidrot lielo valodu modeļu apmācības veidus un veikt modeļu pielāgošanu latviešu valodai. Izmantojot latviešu valodā mašīntulkotu Alpaca instrukciju kopu, tika veikta instrukciju pielāgošana Llama 3.1 un Mistral modeļiem, pēc kuras tika veikta pielāgoto modeļu salīdzināšana ar pamata modeļu darbību. Pielāgoto modeļu rezultāti latviešu valodas bezpiemēru ģenerēšanā un teksta saprašanā bija augstāki par pamata modeļu rezultātiem, kas liecina par instrukciju pielāgošanu kā efektīvu metodi, lai uzlabotu mazāku resursu valodu saprašanu.
dc.description.abstractLarge language models are primarily trained on English or other frequently used language data which give them lower results on their performance for low resource languages like Latvian when compared with the pretrained language. The aim of this master’s thesis is to research about the different large language model training methods and to fine-tune a language model for Latvian. The Llama 3.1 and Mistral models were instruction tuned on a Latvian machine translated Alpaca instruction set. When the fine-tuning was finished, both models were compared with their baseline models and evaluated on their performance. The Latvian fine-tuned models demonstrated better results on zero-shot generation and reading comprehension than their base models which shows instruction fine-tuning as an effective method for improving the comprehension of low resource languages.
dc.language.isolav
dc.publisherLatvijas Universitāte
dc.rightsinfo:eu-repo/semantics/openAccess
dc.subjectDatorzinātne un informātika
dc.subjectlielie valodu modeļi
dc.subjectinstrukciju pielāgošana
dc.subjectLlama 3.1
dc.subjectMistral
dc.titleLielo valodas modeļu pielāgošana latviešu valodai
dc.title.alternativeAdapting Large Language Models to the Latvian Language
dc.typeinfo:eu-repo/semantics/masterThesis


Файлы в этом документе

Thumbnail

Данный элемент включен в следующие коллекции

Показать сокращенную информацию