• English
    • Latviešu
    • Deutsch
    • русский
  • Help
  • English 
    • English
    • Latviešu
    • Deutsch
    • русский
  • Login
View Item 
  •   DSpace Home
  • B4 – LU fakultātes / Faculties of the UL
  • A -- Eksakto zinātņu un tehnoloģiju fakultāte / Faculty of Science and Technology
  • Bakalaura un maģistra darbi (EZTF) / Bachelor's and Master's theses
  • View Item
  •   DSpace Home
  • B4 – LU fakultātes / Faculties of the UL
  • A -- Eksakto zinātņu un tehnoloģiju fakultāte / Faculty of Science and Technology
  • Bakalaura un maģistra darbi (EZTF) / Bachelor's and Master's theses
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Izskaidrojamā mākslīgā intelekta metožu pielietojumi biomedicīnas attēlu klasifikatoru analīzei.

Thumbnail
View/Open
302-96174-Zarins_Ricards_rz19018.pdf (921.7Kb)
Author
Zariņš, Ričards
Co-author
Latvijas Universitāte. Datorikas fakultāte
Advisor
Ivanovs, Maksims
Date
2023
Metadata
Show full item record
Abstract
Bakalaura darbā “Izskaidrojamā mākslīgā intelekta metožu pielietojumi biomedicīnas attēlu klasifikatoru analīzei” tiek apskatītas dažas izskaidrojamā mākslīgā intelekta metodes, kuras paskaidro neironu tīklu, kuri klasificē attēlus, melnās kastes, kā arī tiek apskatītas to nozīmi un mērķi biomedicinā. Šī tēma ir aktuāla, jo tehnoloģijām attīstoties, arvien vairāk tiek izmantotas mākslīgā intelekta metodes medicīnā, bet to izmantošanu apgrūtina to necaurspīdīgums. Neironu tīkli un izskaidrojamā mākslīgā intelekta metodes ir radītas, lai atvieglotu un palīdzētu speciālistiem diagnožu noteikšanā, speciālists var kļūdīties, bet neironu tīkli un to izskaidrojošās metodes palīdzētu risināt šādas problēmas. Darba mērķis ir izpētīt izskaidrojošās metodes, kuras izveido pikseļu nozīmīguma kartes, lai parādītu uz ko koncentrējās neironu tīklu modelis radot rezultātu.
 
The bachelor thesis “Applications of explainable artificial intelligence methods for the analysis of biomedical image classifiers” is about some of explainable artificial intelligence methods, which help to understand classification neural network black boxes, and their importance and objectives in biomedicine. This topic is actual because by improvements of technology, there is way more use of artificial intelligence in medicine, but their use is complicated, because their work is not transparent. Neural networks and explainable artificial intelligence methods are used to help and relieve specialists diagnosing, specialist can make a mistake, but neural networks and their explanations are made to help resolve such problems. The aim of this work is to research explainable methods, which are generating saliency maps, that show what neural network “sees” outputting result.
 
URI
https://dspace.lu.lv/dspace/handle/7/64296
Collections
  • Bakalaura un maģistra darbi (EZTF) / Bachelor's and Master's theses [5688]

University of Latvia
Contact Us | Send Feedback
Theme by 
@mire NV
 

 

Browse

All of DSpaceCommunities & CollectionsBy Issue DateAuthorsTitlesSubjectsThis CollectionBy Issue DateAuthorsTitlesSubjects

My Account

Login

Statistics

View Usage Statistics

University of Latvia
Contact Us | Send Feedback
Theme by 
@mire NV