Show simple item record

dc.contributor.advisorIvanovs, Maksims
dc.contributor.authorZariņš, Ričards
dc.contributor.otherLatvijas Universitāte. Datorikas fakultāte
dc.date.accessioned2023-09-06T01:03:44Z
dc.date.available2023-09-06T01:03:44Z
dc.date.issued2023
dc.identifier.other96174
dc.identifier.urihttps://dspace.lu.lv/dspace/handle/7/64296
dc.description.abstractBakalaura darbā “Izskaidrojamā mākslīgā intelekta metožu pielietojumi biomedicīnas attēlu klasifikatoru analīzei” tiek apskatītas dažas izskaidrojamā mākslīgā intelekta metodes, kuras paskaidro neironu tīklu, kuri klasificē attēlus, melnās kastes, kā arī tiek apskatītas to nozīmi un mērķi biomedicinā. Šī tēma ir aktuāla, jo tehnoloģijām attīstoties, arvien vairāk tiek izmantotas mākslīgā intelekta metodes medicīnā, bet to izmantošanu apgrūtina to necaurspīdīgums. Neironu tīkli un izskaidrojamā mākslīgā intelekta metodes ir radītas, lai atvieglotu un palīdzētu speciālistiem diagnožu noteikšanā, speciālists var kļūdīties, bet neironu tīkli un to izskaidrojošās metodes palīdzētu risināt šādas problēmas. Darba mērķis ir izpētīt izskaidrojošās metodes, kuras izveido pikseļu nozīmīguma kartes, lai parādītu uz ko koncentrējās neironu tīklu modelis radot rezultātu.
dc.description.abstractThe bachelor thesis “Applications of explainable artificial intelligence methods for the analysis of biomedical image classifiers” is about some of explainable artificial intelligence methods, which help to understand classification neural network black boxes, and their importance and objectives in biomedicine. This topic is actual because by improvements of technology, there is way more use of artificial intelligence in medicine, but their use is complicated, because their work is not transparent. Neural networks and explainable artificial intelligence methods are used to help and relieve specialists diagnosing, specialist can make a mistake, but neural networks and their explanations are made to help resolve such problems. The aim of this work is to research explainable methods, which are generating saliency maps, that show what neural network “sees” outputting result.
dc.language.isolav
dc.publisherLatvijas Universitāte
dc.rightsinfo:eu-repo/semantics/openAccess
dc.subjectDatorzinātne
dc.subjectizskaidrojamais mākslīgais intelekts
dc.subjectbiomedicīna
dc.subjectnozīmīguma kartes
dc.subjectattēla perturbācijas
dc.titleIzskaidrojamā mākslīgā intelekta metožu pielietojumi biomedicīnas attēlu klasifikatoru analīzei.
dc.title.alternativeApplications of explainable artificial inteligence methods for the analysis of biomedical image classifiers.
dc.typeinfo:eu-repo/semantics/bachelorThesis


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record