Show simple item record

dc.contributor.advisorKučs, Artūrs
dc.contributor.authorTumule, Jekaterina
dc.contributor.otherLatvijas Universitāte. Juridiskā fakultāte
dc.date.accessioned2021-01-29T02:03:43Z
dc.date.available2021-01-29T02:03:43Z
dc.date.issued2021
dc.identifier.other79635
dc.identifier.urihttps://dspace.lu.lv/dspace/handle/7/53615
dc.description.abstractMākslīgā intelekta (turpmāk – MI) lietošana ienāk mūsu ikdienā ne tikai ar ieguvumiem, bet arī ar dažādiem riskiem, tostarp riskiem cilvēktiesībām un vienlīdzīgai attieksmei. Tādēļ šajā bakalaura darbā tiek pētīts, kādā veidā MI var radīt diskriminācijas riskus, aplūkotas jomas, kurās šie riski ir īpaši augsti, analizēts tiesiskais regulējums un starptautisko organizāciju ieteikumi attiecībā uz diskriminācijas risku novēršanu MI tehnoloģijās. Tādā veidā tiek meklētas atbildes uz to, kas ir nepieciešams, lai nepieļautu vai mazinātu diskriminācijas riskus MI izmantošanā. Pētījumā ir secināts, ka MI izraisītā diskriminācija rodas dažādu faktoru ietekmē un bieži paliek slēpta sistēmas necaurspīdīguma vai tā sauktās “melnās kastes” efekta dēļ. MI nepārredzamība, sarežģītība un ātrs attīstības process ir liels izaicinājums esošā pret-diskriminācijas un datu aizsardzības tiesiskā regulējuma piemērošanā un cietušo personu tiesību aizsardzībā. Dažādas starptautiskās cilvēktiesību organizācijas un Eiropas Komisija pēdējo pāris gadu laikā publicējušas vairākus ziņojumus un rekomendācijas par iespējamiem risinājumiem, lai padarītu MI sistēmas pārredzamas, bet to lietotājus atbildīgus, lai novērstu diskrimināciju. Tomēr šo rekomendāciju ieviešana praksē ir vēl tikai priekšā.
dc.description.abstractUse of artificial intelligence (AI) comes to our life not only with benefits, but also with different risks, including risks for human rights and equal treatment of individuals. Therefore, this thesis examines how AI can pose risks of discrimination, examines areas with the highest risks, and analyses legal framework and recommendations from international organisations on how to address these risks. Thus, seeking for answers on what actions are necessary in order to prevent or mitigate the risks of discrimination caused by AI. Through the research it is concluded that discrimination caused by AI can appear due to different factors and often remains hidden due to system’s opacity or so-called “black box” effect. Application of the existing anti-discrimination and data protection regulation and protection of victims’ rights is also challenging due to the AI opacity, complexity, and fast development process. As a response to the challenges, different international human rights institutions and the European Commission issued several reports and recommendations addressing possible ways of making AI systems transparent, but its users accountable in order to prevent discrimination. However, these recommendations still need to be transferred into practice.
dc.language.isolav
dc.publisherLatvijas Universitāte
dc.rightsinfo:eu-repo/semantics/openAccess
dc.subjectJuridiskā zinātne
dc.subjectmākslīgais intelekts
dc.subjectdiskriminācija
dc.subjectalgoritmi
dc.subjectmašīnmācīšanās
dc.subjectcilvēktiesības
dc.titleMākslīgais intelekts un diskriminācijas novēršana
dc.title.alternativeArtificial intelligence and prevention of discrimination
dc.typeinfo:eu-repo/semantics/bachelorThesis


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record