Iestatījumi

ANO Bads Bērnu tiesības Cilvēka cieņa Cilvēka orgānu tirdzniecība Cilvēktiesības Cilvēktiesību gids Cilvēktiesību izglītība Cilvēktirdzniecība Dati Demokrātija Dezinformācija Diskriminācija Droša vide Dzimumu līdztiesība ECK ECSR ECT Eiropas Komisija Eiropas Padome Eiropas Parlaments Eiropas Savienība Eiropas Savienības Pamattiesību harta Eiropas Sociālā harta Enerģētika ES EST Finanses GDPR Ģimene Humanitārās tiesības ICC ICJ Ieslodzījuma vietas Ilgtspējīga attīstība Imigrācija Integrācija Interneta starpnieki Internets Invaliditāte Izglītība Jaunatne Jaunrades brīvība Karš Kibernoziedzība Kibervardarbība Klimata krīze Klimats Konkurss Korupcija Kriminālprocess Laba pārvaldība Labvēlīga vide LGBT LU Mājokļa un korespondences neaizskaramība Mākslīgais intelekts Mediji Medijpratība Migrācija Minoritātes Nabadzība Naida runa Necilvēcīgas vai pazemojošas izturēšanās aizliegums Nodarbošanās brīvība Nodokļi Patvērums Personas dati Pilsoniskā sabiedrība Preses brīvība Rase Reliģijas brīvība Sabiedrības līdzdalība Satversmes tiesa SCOTUS Seksuālā ekspluatācija Seniori Sievietes Sociālās un ekonomiskās tiesības Sociālie tīkli Spīdzināšanas aizliegums Taisnīga tiesa Tehnoloģijas Tiesības uz brīvību un drošību Tiesības uz dzīvību Tiesības uz īpašumu Tiesības uz privāto dzīvi Tiesībsargs Tiesiskā vienlīdzība Tiesu varas neatkarība Trauksmes celšana Ukraina UNESCO Uzņēmējdarbība Valsts dienests Vārda brīvība Vardarbība Vēlēšanas Veselība Vides piekļūstamība Vides tiesības Viendzimuma laulība Viendzimuma pāru aizsardzība Vienlīdzīgas iespējas Žurnālisms Rādīt visas tēmas

Pētījums

Mākslīgais intelekts – draugs vai drauds?

Augstas amatpersonas apgalvo, ka Latvijā ir resursi, lai radītu digitālos risinājumus ne tikai mums pašiem, bet arī pasaules tirgum. Tas ir lieliski, tomēr veidojot šādas inovācijas jāapzinās, ka mākslīgais intelekts var pārkāpt pamattiesības, tai skaitā diskriminēt cilvēkus, ja netiek ievēroti vairāki nosacījumi. Piemēram, izmantotajiem datiem jābūt kvalitatīviem un uzticamiem, cilvēkiem nepārprotami jāapzinās, ka viņi ir saskarē ar mākslīgā intelekta sistēmu, kur vien to izmanto, un tām jābūt tādām, kuru pārraudzību jebkurā brīdī var uzņemties cilvēks.

Pētījumā “Mākslīgā intelekta sistēmas un diskriminācijas aspekti” analizēts, kā pašlaik mākslīgā intelekta sistēmas jau ir pārkāpušas cilvēka pamattiesības tādās jomās, kā nodarbinātība, izglītība, biometriskā identifikācija un pamatpakalpojumu pieejamība. Šīs ir četras no astoņām augsta riska jomām, ko definē jaunā Eiropas Savienības Mākslīgā intelekta regula.

Starptautiskā prakse rāda – mākslīgais intelekts var diskriminēt cilvēkus

Piedāvājam dažus uzskatāmus piemērus no starptautiskās prakses:

  • Nīderlandē sistēmiskā riska identificēšanas krāpšanas apkarošanas sistēma nepamatoti apsūdzēja aptuveni 26 000 vecākus par krāpnieciskiem bērna kopšanas pabalstu pieprasījumiem. Daļai vecāku apturēja pabalstu izmaksu, bet vēl daļai lūdza tos atmaksāt. Daudzos gadījumos summa sasniedza vairākus desmitus tūkstošu eiro, radot ģimenēm ievērojamas finansiālas grūtības. Šajā gadījumā mākslīgā intelekta sistēma pieļāva kļūdas, vērtējot dubultpilsonības aspektu. Tiesa atzina pārkāpumu, un 2021. gadā šis skandāls labklājības jomā piespieda Nīderlandes valdību atkāpties.
  • Savukārt ASV interneta tirdzniecības uzņēmuma “Amazon” darbā pieņemšanas algoritms par labākiem kandidātiem uzskatīja vīriešus, attiecīgi noraidot CV, kuros bija iekļauts vārds “sieviete”. Rezultātā “Amazon” atteicās no mākslīgā intelekta personāla atlases rīka.
  • Stenfordas Universitātes pētījums pērn atklāja – Chat GPT detektori klasificē tekstu, ko rakstījuši cilvēki (kuriem angļu valoda nav dzimtā), kā mākslīgā intelekta radītu. Patiesībā tā nebija – šiem iedzīvotājiem objektīvu iemeslu dēļ ir ierobežots vārdu krājums un gramatikas lietojums. Mākslīgā intelekta kļūdas dēļ viņi var saskarties ar nepamatotām apsūdzībām par krāpšanu vai plaģiātismu akadēmiskā un profesionālā vidē.

Kas jāmaina, lai mākslīgais intelekts būtu draugs nevis drauds?

Pirmkārt, uzmanība jāpievērš datu kvalitātei un pārvaldībai. Ja mākslīgā intelekta sistēma nav “apmācīta” ar augstas kvalitātes datiem, nav precīza un pārbaudīta pirms “palaišanas tirgū” – ar lielu ticamību tā būs cilvēkus diskriminējoša.

Otrkārt, mākslīgā intelekta sistēmas jāveido tā, lai cilvēkiem būtu pilnīgi skaidrs, ka viņi sazinās ar mākslīgā intelekta sistēmu, nevis, piemēram, ar iestādes darbinieku. Iedzīvotājus jāinformē arī par viņu tiesībām.

Treškārt, šīm sistēmām jāspēj darboties tādā veidā, ko cilvēki var atbilstoši kontrolēt un virsvadīt. Iejaukties, kad vien tas nepieciešams, un arī apturēt sistēmu, ja tā nedarbojas, kā paredzēts.

Ceturtkārt, tā ir arī atbildība un uzraudzība. Tas nozīmē, ka augsta riska mākslīgā intelekta sistēmām jābūt rūpīgi izstrādātām novērtēšanas procedūrām attiecībā uz datu kvalitāti, dokumentāciju, cilvēka veiktu pārraudzību, precizitāti, kiberdrošību u.c. Piemēram, biometrijas jomā šo pārbaudi jāveic trešajai personai.

“Nav šaubu, ka mākslīgā intelekta sistēmas var būt draugs un palīgs. Tomēr pētījums parāda, kādas sekas var būt tad, ja sistēma ir nepareiza. Ja cilvēka pieļauta kļūda rada kaitējumu citam (konkrētam) cilvēkam, tad mākslīgā intelekta sistēmas radīta kļūda automātiski tiek attiecināta uz to sabiedrības grupu, kura atbilst mākslīgā intelekta sistēmas noteiktiem kritērijiem. Tādējādi, ietekme ir daudz plašāka. Es ceru, ka politiķu aicinājums par Latvijas spēju radīt pasaules līmeņa mākslīgā intelekta sistēmas īstenosies arī tādā ziņā, ka pamattiesību ievērošana tajās būs prioritāte,” uzsver Tiesībsarga biroja Diskriminācijas novēršanas nodaļas vadītāja Anete Ilves.

Uzziņai

Eiropas Savienībā šovasar[1] stājās spēkā Eiropas Parlamenta un Padomes Regula[2], kas nosaka jaunas normas mākslīgā intelekta jomā. Tā kļūs tieši piemērojama visās ES dalībvalstīs, tai skaitā Latvijā, pēc diviem gadiem, t.i. no 2026. gada 2. augusta (izņemot atsevišķus noteikumus, kurus piemēros ātrāk).

Šo pētījumu tiesībsarga uzdevumā izstrādāja Latvijas Universitātes pētniece dr.iur Irēna Barkāne.

Atsauces

  1. ^ 2024. gada 13. jūnijā tika pieņemta un 1. augustā stājās spēkā
  2. ^ (2024/1689)