• English
    • Latviešu
    • Deutsch
    • русский
  • Help
  • русский 
    • English
    • Latviešu
    • Deutsch
    • русский
  • Войти
Просмотр элемента 
  •   Главная
  • B4 – LU fakultātes / Faculties of the UL
  • A -- Eksakto zinātņu un tehnoloģiju fakultāte / Faculty of Science and Technology
  • Bakalaura un maģistra darbi (EZTF) / Bachelor's and Master's theses
  • Просмотр элемента
  •   Главная
  • B4 – LU fakultātes / Faculties of the UL
  • A -- Eksakto zinātņu un tehnoloģiju fakultāte / Faculty of Science and Technology
  • Bakalaura un maģistra darbi (EZTF) / Bachelor's and Master's theses
  • Просмотр элемента
JavaScript is disabled for your browser. Some features of this site may not work without it.

Izskaidrojamā mākslīgā intelekta metožu pielietojumi biomedicīnas attēlu klasifikatoru analīzei.

Thumbnail
Открыть
302-96174-Zarins_Ricards_rz19018.pdf (921.7Kb)
Автор
Zariņš, Ričards
Co-author
Latvijas Universitāte. Datorikas fakultāte
Advisor
Ivanovs, Maksims
Дата
2023
Metadata
Показать полную информацию
Аннотации
Bakalaura darbā “Izskaidrojamā mākslīgā intelekta metožu pielietojumi biomedicīnas attēlu klasifikatoru analīzei” tiek apskatītas dažas izskaidrojamā mākslīgā intelekta metodes, kuras paskaidro neironu tīklu, kuri klasificē attēlus, melnās kastes, kā arī tiek apskatītas to nozīmi un mērķi biomedicinā. Šī tēma ir aktuāla, jo tehnoloģijām attīstoties, arvien vairāk tiek izmantotas mākslīgā intelekta metodes medicīnā, bet to izmantošanu apgrūtina to necaurspīdīgums. Neironu tīkli un izskaidrojamā mākslīgā intelekta metodes ir radītas, lai atvieglotu un palīdzētu speciālistiem diagnožu noteikšanā, speciālists var kļūdīties, bet neironu tīkli un to izskaidrojošās metodes palīdzētu risināt šādas problēmas. Darba mērķis ir izpētīt izskaidrojošās metodes, kuras izveido pikseļu nozīmīguma kartes, lai parādītu uz ko koncentrējās neironu tīklu modelis radot rezultātu.
 
The bachelor thesis “Applications of explainable artificial intelligence methods for the analysis of biomedical image classifiers” is about some of explainable artificial intelligence methods, which help to understand classification neural network black boxes, and their importance and objectives in biomedicine. This topic is actual because by improvements of technology, there is way more use of artificial intelligence in medicine, but their use is complicated, because their work is not transparent. Neural networks and explainable artificial intelligence methods are used to help and relieve specialists diagnosing, specialist can make a mistake, but neural networks and their explanations are made to help resolve such problems. The aim of this work is to research explainable methods, which are generating saliency maps, that show what neural network “sees” outputting result.
 
URI
https://dspace.lu.lv/dspace/handle/7/64296
Collections
  • Bakalaura un maģistra darbi (EZTF) / Bachelor's and Master's theses [5688]

University of Latvia
Контакты | Отправить отзыв
Theme by 
@mire NV
 

 

Просмотр

Весь DSpaceСообщества и коллекцииДата публикацииАвторыНазванияТематикаЭта коллекцияДата публикацииАвторыНазванияТематика

Моя учетная запись

Войти

Статистика

Просмотр статистики использования

University of Latvia
Контакты | Отправить отзыв
Theme by 
@mire NV