Pētījums: Mākslīgais intelekts var pārkāpt pamattiesības un diskriminēt cilvēkus
Kā aģentūru LETA informēja Tiesībsarga birojā, pētījumā “Mākslīgā intelekta sistēmas un diskriminācijas aspekti” analizēts, kā pašlaik mākslīgā intelekta sistēmas ir pārkāpušas cilvēka pamattiesības tādās jomās kā nodarbinātība, izglītība, biometriskā identifikācija un pamatpakalpojumu pieejamība. Šīs ir četras no astoņām augsta riska jomām, ko definējusi Eiropas Savienības Mākslīgā intelekta regula, atzīmē birojā.
Birojā norāda, ka arī starptautiskā prakse rāda, ka mākslīgais intelekts var diskriminēt cilvēkus. Piemēram, Nīderlandē sistēmiskā riska identificēšanas krāpšanas apkarošanas sistēma nepamatoti apsūdzēja aptuveni 26 000 vecākus par krāpnieciskiem bērna kopšanas pabalstu pieprasījumiem. Daļai vecāku apturēja pabalstu izmaksu, bet vēl daļai lūdza tos atmaksāt. Daudzos gadījumos summa sasniedza vairākus desmitus tūkstošu eiro, radot ģimenēm ievērojamas finansiālas grūtības. Šajā gadījumā mākslīgā intelekta sistēma pieļāva kļūdas, vērtējot dubultpilsonības aspektu. Tiesa atzina pārkāpumu, un 2021.gadā šis skandāls labklājības jomā piespieda Nīderlandes valdību atkāpties.
Savukārt ASV interneta tirdzniecības uzņēmuma “Amazon” darbā pieņemšanas algoritms par labākiem kandidātiem uzskatīja vīriešus, attiecīgi noraidot CV, kuros bija iekļauts vārds “sieviete”. Rezultātā “Amazon” atteicās no mākslīgā intelekta personāla atlases rīka.
Līdztekus Stenfordas Universitātes pētījums pērn atklāja, ka mākslīgā intelekta rīka “Chat GPT” detektori klasificē tekstu, ko rakstījuši cilvēki, kuriem angļu valoda nav dzimtā, kā mākslīgā intelekta radītu. Patiesībā tā nebija – šiem iedzīvotājiem objektīvu iemeslu dēļ ir ierobežots vārdu krājums un gramatikas lietojums. Mākslīgā intelekta kļūdas dēļ viņi var saskarties ar nepamatotām apsūdzībām par krāpšanu vai plaģiātismu akadēmiskā un profesionālā vidē, skaidro birojā.
Tiesībsargs norāda – lai mākslīgais intelekts nebūtu drauds, pirmkārt, jāvērš uzmanība datu kvalitātei un pārvaldībai. Ja mākslīgā intelekta sistēma nav “apmācīta” ar augstas kvalitātes datiem, nav precīza un pārbaudīta pirms “palaišanas tirgū” – ar lielu ticamību tā būs cilvēkus diskriminējoša.
Otrkārt, tiesībsargs norāda, ka mākslīgā intelekta sistēmas jāveido tā, lai cilvēkiem būtu pilnīgi skaidrs, ka viņi sazinās ar mākslīgā intelekta sistēmu, nevis, piemēram, ar iestādes darbinieku. Iedzīvotājus jāinformē arī par viņu tiesībām.
Treškārt, šīm sistēmām jāspēj darboties tādā veidā, ko cilvēki var atbilstoši kontrolēt un virsvadīt – iejaukties, kad vien tas nepieciešams, un arī apturēt sistēmu, ja tā nedarbojas, kā paredzēts, uzsver birojā.
Ceturtkārt, kā secināts pētījumā, svarīga ir arī atbildība un uzraudzība. Tas nozīmē, ka augsta riska mākslīgā intelekta sistēmām jābūt rūpīgi izstrādātām novērtēšanas procedūrām attiecībā uz datu kvalitāti, dokumentāciju, cilvēka veiktu pārraudzību, precizitāti, kiberdrošību un citiem aspektiem. Piemēram, biometrijas jomā šo pārbaudi jāveic trešajai personai, atzīmē birojā.
Tiesībsarga biroja Diskriminācijas novēršanas nodaļas vadītāja Anete Ilves norāda, ka nav šaubu, ka mākslīgā intelekta sistēmas var būt draugs un palīgs, tomēr pētījums parādot, kādas sekas var būt tad, ja sistēma ir nepareiza. “Ja cilvēka pieļauta kļūda rada kaitējumu citam konkrētam cilvēkam, tad mākslīgā intelekta sistēmas radīta kļūda automātiski tiek attiecināta uz to sabiedrības grupu, kura atbilst mākslīgā intelekta sistēmas noteiktiem kritērijiem. Tādējādi, ietekme ir daudz plašāka. Es ceru, ka politiķu aicinājums par Latvijas spēju radīt pasaules līmeņa mākslīgā intelekta sistēmas īstenosies arī tādā ziņā, ka pamattiesību ievērošana tajās būs prioritāte,” uzsver Ilves.
Eiropas Savienībā šovasar stājās spēkā Eiropas Parlamenta un Padomes regula, kas nosaka jaunas normas mākslīgā intelekta jomā. Tā kļūs tieši piemērojama visās ES dalībvalstīs, tai skaitā Latvijā, pēc diviem gadiem – no 2026.gada 2.augusta.
Pētījumu tiesībsarga uzdevumā izstrādāja Latvijas Universitātes pētniece Irēna Barkāne.