• English
    • Latviešu
    • Deutsch
    • русский
  • Help
  • English 
    • English
    • Latviešu
    • Deutsch
    • русский
  • Login
View Item 
  •   DSpace Home
  • B4 – LU fakultātes / Faculties of the UL
  • A -- Eksakto zinātņu un tehnoloģiju fakultāte / Faculty of Science and Technology
  • Bakalaura un maģistra darbi (EZTF) / Bachelor's and Master's theses
  • View Item
  •   DSpace Home
  • B4 – LU fakultātes / Faculties of the UL
  • A -- Eksakto zinātņu un tehnoloģiju fakultāte / Faculty of Science and Technology
  • Bakalaura un maģistra darbi (EZTF) / Bachelor's and Master's theses
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Lielo valodas modeļu automātiska pielāgošana

Thumbnail
View/Open
302-102949-Vitols_Andris_av20104.pdf (1.367Mb)
Author
Vītols, Andris
Co-author
Latvijas Universitāte. Datorikas fakultāte
Advisor
Ivanovs, Maksims
Date
2024
Metadata
Show full item record
Abstract
Lielo valodas modeļu izmantošana specifisku uzdevumu veikšanai var būt nepieciešams veikt papildus pielāgošanu. Gan izmantošana, gan pielāgošana prasa ievērojami daudz datorresursu. Abi šie ierobežojumi kavē lielo valodas modeļu tālāku pētniecību, attīstību un ieviešanu. Šī bakalaura darba mērķis ir apskatīt metodes un metodoloģijas, kas varētu atvieglot lielo valodas modeļu pielāgošanas procesu ar ierobežotiem datorresursiem. Tika veikti divi eksperimenti lietojot darbā apskatīto metodoloģiju. 1. eksperimentā tika veikta Mistral-7B-Instruct-v0.2 kvantēta modeļa tālāka pielāgošana instrukciju sekošanai, 2. eksperimentā Mistral-7B-v0.1. Abos eksperimentos metrikās tika iegūtu salīdzinoši labāki rezultāti. Atslēgas vārdi: kvantēšana, lielie valodas modeļi, metodoloģija, metrikas, pielāgošana
 
Using large language models for specific tasks may require the model to be fine-tuned. Both the use and tuning require a significant amount of computer resources. These limitations hinder further research, development and implementation of large language models. The purpose of this bachelor's paper is to review methods and methodologies that could ease the process of fine-tuning large language models with limited computer resources. Two experiments were conducted using the methodology discussed in this work. In experiment 1, further adaptation of the Mistral-7B-Instruct-v0.2 quantized model for instruction following was performed, in experiment 2 it was done with Mistral-7B-v0.1. In both experiments, the metrics reflected relatively better results. Key words: benchmarks, fine-tuning, large language models, methodology, quantization
 
URI
https://dspace.lu.lv/dspace/handle/7/66138
Collections
  • Bakalaura un maģistra darbi (EZTF) / Bachelor's and Master's theses [5688]

University of Latvia
Contact Us | Send Feedback
Theme by 
@mire NV
 

 

Browse

All of DSpaceCommunities & CollectionsBy Issue DateAuthorsTitlesSubjectsThis CollectionBy Issue DateAuthorsTitlesSubjects

My Account

Login

Statistics

View Usage Statistics

University of Latvia
Contact Us | Send Feedback
Theme by 
@mire NV