Iestatījumi

ANO Bads Bērnu tiesības Cilvēka cieņa Cilvēka orgānu tirdzniecība Cilvēktiesības Cilvēktiesību gids Cilvēktiesību izglītība Cilvēktirdzniecība Dati Demokrātija Dezinformācija Diskriminācija Droša vide Dzimumu līdztiesība ECK ECSR ECT Eiropas Komisija Eiropas Padome Eiropas Parlaments Eiropas Savienība Eiropas Savienības Pamattiesību harta Eiropas Sociālā harta Enerģētika ES EST Finanses GDPR Ģimene Humanitārās tiesības ICC ICJ Identitāte Ieslodzījuma vietas Ilgtspējīga attīstība Imigrācija Integrācija Interneta starpnieki Internets Invaliditāte Izglītība Jaunatne Jaunrades brīvība Karš Kibernoziedzība Kibervardarbība Klimata krīze Klimats Konkurss Korupcija Kriminālprocess Laba pārvaldība Labvēlīga vide LGBT LU Mājokļa un korespondences neaizskaramība Mākslīgais intelekts Mediji Medijpratība Migrācija Minoritātes Nabadzība Naida runa Necilvēcīgas vai pazemojošas izturēšanās aizliegums Nodarbošanās brīvība Nodokļi Pašnoteikšanās Patvērums Personas dati Pilsoniskā sabiedrība Preses brīvība Rase Reliģijas brīvība Sabiedrības līdzdalība Satversmes tiesa SCOTUS Seksuālā ekspluatācija Seniori Sievietes Sociālās un ekonomiskās tiesības Sociālie tīkli Spīdzināšanas aizliegums Taisnīga tiesa Tehnoloģijas Tiesības uz brīvību un drošību Tiesības uz dzīvību Tiesības uz īpašumu Tiesības uz privāto dzīvi Tiesībsargs Tiesiskā vienlīdzība Tiesu varas neatkarība Trauksmes celšana Ukraina UNESCO Uzņēmējdarbība Valsts dienests Vārda brīvība Vardarbība Vēlēšanas Veselība Vides piekļūstamība Vides tiesības Viendzimuma laulība Viendzimuma pāru aizsardzība Vienlīdzīgas iespējas Žurnālisms Rādīt visas tēmas

Tiesību interpretācija

Vai “AI” drīkst izlemt par dzīvību un nāvi? Mākslīgā intelekta ieroču ētiskie un juridiskie izaicinājumi humanitāro tiesību kontekstā

Mūsdienu tehnoloģiju attīstība ir radījusi izaicinājumus, kas līdz šim starptautiskajām tiesībām bija nepazīstami. Mākslīgā intelekta vadītās autonomās ieroču sistēmas (MI AIS) būtiski maina karadarbības raksturu, liekot starptautiskajai sabiedrībai pārdomāt humanitāro tiesību pamatprincipu piemērošanu. Vai algoritmi spēj ievērot nošķiršanas, samērīguma un nepieciešamības principus, kurus jau desmitgadēm nosaka Ženēvas konvencijas un paražu tiesības? Kas nesīs atbildību par šo ieroču darbības sekām – valstis, militārās personas, ieroču pārdevēji vai programmētāji? Šis raksts analizē MI AIS juridiskos un ētiskos aspektus, kā arī sniedz ieskatu starptautiskajās debatēs un izaicinājumos, kas saistīti ar atbildības noteikšanu un humāno principu aizsardzību šajā jaunajā tehnoloģiju laikmetā.

Ian Usher / Unsplash

Kas ir mākslīgā intelekta autonomās ieroču sistēmas (MI AIS)?

MI AIS ir ieroči, kas izmanto mākslīgo intelektu, lai veiktu uzdevumus, tostarp mērķu atlasi un iesaistīšanos, ar dažāda līmeņa cilvēka iejaukšanos. Pieņemtā autonomās ieroču sistēmas definīcija ir šāda: “jebkuri ieroči, kas izvēlas un pielieto spēku pret mērķiem bez cilvēka iejaukšanās.” [1].

Divi svarīgi aspekti, kas raksturo šo jēdzienu, ir autonomija - sistēmas spēja darboties bez tiešas cilvēka iejaukšanās kritisko funkciju veikšanā, piemēram, identificējot un uzbrūkot mērķiem, un mākslīgais intelekts - algoritmu izmantošana, lai uzlabotu lēmumu pieņemšanu, mērķu atpazīšanu un darbības efektivitāti. 

Humanitārās tiesības un mākslīgais intelekts   

Ženēvas konvenciju I papildprotokola 36. pantam ir izšķiroša nozīme jaunu ieroču, tostarp jauno tehnoloģiju, piemēram, autonomo ieroču sistēmu (AIS) un mākslīgā intelekta vadītu militāro tehnoloģiju, regulēšanā.[2] 36. pantā noteikts, ka valstīm ir jāveic jaunu ieroču, līdzekļu un metožu juridiska pārskatīšana, lai noteiktu, vai to izmantošana būtu aizliegta saskaņā ar starptautiskajām humanitārajām tiesībām. Konkrētāk, tas uzliek valstīm pienākumu izvērtēt jaunu ieroču likumību to:

  • Izpētes laikā (study)
  • Izstrādes laikā (development)
  • Ieguves laikā (acquisition)
  • Pieņemšanas laikā (adoption)[3]

Šis pants uzliek valstīm praktisku pienākumu novērst tādu ieroču izmantošanu, kas pārkāpj starptautiskās tiesības. Tas ietver gan jaunu ieroču likumības noteikšanu, pirms tie tiek izmantoti bruņotā konfliktā, gan pārskatīšanas piemērošanu ieročiem visplašākajā nozīmē, tostarp to, kā tie tiek izmantoti.[4]

36. panta mērķis ir ierobežot karadarbību, novēršot ieročus, kas:

  • mērķē bez izšķirības 
  • rada liekus ievainojumus
  • rada nevajadzīgas ciešanas

Lai gan tas nav visaptverošs risinājums, 36. pants kalpo kā būtisks pagaidu pasākums jauno militāro tehnoloģiju regulēšanai.[4]

Uz ko attiecas 36. pants?

Saskaņā ar Ženēvas konvencijas protokola komentāru pienākums attiecas gan uz ražotājvalstīm, gan pircējvalstīm - ja ražotājvalsts nav protokola līgumslēdzēja puse, tas nenozīmē, ka citas valstis var iegādāties jaunus ieročus un izmantot tos bez jebkādiem pienākumiem. Attiecībā uz nākotnes ieročiem 36. pantā atbildība ir uzlikta valstu valdībām - to pienākums ir izstrādāt iekšējās procedūras, lai noteiktu jauno ieroču - ražoto un iepirkto - likumību.[2]

MI AWS un humanitārie principi 

Galvenie tiesību principi, kurus MI AIS apgrūtina, ir: nošķiršanas (distinction), samērīguma (proportionality) un nepieciešamības (necessity) principi. Nošķiršanas, samērīguma un nepieciešamības principi ir radušies starptautisko humanitāro tiesību vēsturiskajā attīstībā, kas sakņojas centienos humanizēt karadarbību un ierobežot tās postošo ietekmi. Šie principi tika oficiāli integrēti starptautiskajās tiesībās 1949. gada Ženēvas konvencijā, tās papildprotokolos un starptautiskās paražu tiesībās.[5]

Nošķiršanas princips (principle of distinction) prasa nošķirt kaujiniekus un civiliedzīvotājus, vēršoties tikai pret likumīgiem militāriem mērķiem. Tā kā mākslīgā intelekta AIS izmanto sensorus un datu analīzi, kļūdas mērķu atpazīšanā var izraisīt civiliedzīvotāju upurus, radot bažas par šā principa ievērošanu.

Samērīguma princips (principle of proportionality) aizliedz uzbrukumus, kas rada pārmērīgu kaitējumu civiliedzīvotājiem salīdzinājumā ar iegūto militāro priekšrocību. Mākslīgā intelekta AIS kritiķi apgalvo, ka algoritmiem var trūkt kontekstuāla sprieduma, lai dinamiski novērtētu proporcionalitāti. 

Nepieciešamības princips (principle of necessity) nosaka, ka spēka pielietošana ir jāierobežo līdz nepieciešamajam, lai sasniegtu likumīgu militāru mērķi. Šajā gadījumā AI AWS var ne vienmēr atbilst šim principam nepareizas situācijas interpretācijas dēļ. 

MI AIS kontekstā trīs principu kritika izriet no viedokļa, ka cilvēka iesaistīšanās ļautu pieņemt labākus lēmumus – gan no juridiskā, gan no ētiskā skatapunkta. Arguments balstās uz ideju, ka cilvēki spēj labāk atpazīt civiliedzīvotājus un likumīgos mērķus, izvairīties no civiliedzīvotāju upuriem un nodrošināt starptautisko tiesību ievērošanu. Tomēr mākslīgā intelekta AIS atbalstītāji apgalvo, ka patiesībā algoritmi varētu ievērot šos principus potenciāli vēl labāk, izvairoties no cilvēka kļūdām.[6]

Būtiska problēma rodas saistībā ar to, ka nav skaidri regulēta atbildība par pārkāpumiem. Lai gan galīgā atbildība gulstas uz valstīm, atbildības noteikšanai par kļūdām MI programmēšanā vai lēmumu pieņemšanas procesos var būt nepieciešama skaidrāka sistēma, kurā iesaistīti izstrādātāji un operatori.[7]

Lai novērstu nepilnības saistībā ar atbildību par MI AIS saskaņā ar starptautiskajām humanitārajām tiesībām, mums jāpaļaujas uz valsts atbildības sistēmām, piemēram, ARSIWA (Responsibility of States for Internationally Wrongful Acts) - tās nodrošina tiesisko regulējumu atbildības noteikšanai par starptautiski prettiesisku darbību pārkāpumiem. Saskaņā ar 4.-11. pantu valstis ir atbildīgas par MI AIS darbībām, ja sistēmas ir izstrādājušas, izvietojušas vai atļāvušas valsts struktūras vai pārstāvji. Piemēram, ja konfliktā izvietotā MI AIS nenodala kaujiniekus no civiliedzīvotājiem, kā rezultātā cieš civiliedzīvotāji, tad valsti, kas izvieto sistēmu, var saukt pie atbildības par starptautisko humanitāro tiesību principu - nošķiršanas un samērīguma - pārkāpšanu. Tomēr, kā minēts iepriekš, rodas sarežģījumi, nosakot atbildību par MI AIS darbības traucējumiem - vai nu kļūdainu algoritmu, nepietiekamas testēšanas vai nepareizas ekspluatācijas dēļ.[8]

Vēl viens starptautisks atbildības instruments ir ANO Statūti. ANO Statūtos ir uzsvērti valstu pienākumi saskaņā ar 2. panta 4. punktu (spēka lietošanas aizliegums) un 51. pantu (pašaizsardzība), ko var piemērot saistībā ar MI AIS izmantošanu. Neatļauta MI AIS izmantošana pārrobežu operācijās varētu būt 2. panta 4. punkta pārkāpums, savukārt to izmantošanai pašaizsardzības nolūkā ir jāatbilst starptautisko humanitāro tiesību principiem.

Ņemot vērā šīs problēmas, valstīm ir jāizveido spēcīgi iekšējās pārskatīšanas mehānismi saskaņā ar 36. pantu un jāsadarbojas starptautiskā līmenī, lai novērstu regulējuma nepilnības.

Starptautiskās debates: divas perspektīvas

Valdību ekspertu grupa (GGE) AIS jautājumos ir forums, kas izveidots, lai apspriestu juridiskās, ētiskās un tehnoloģiskās problēmas, ko rada autonomās ieroču sistēmas. GGE nav vienojusies par vispārēju AIS definīciju, taču diskusijās plaši tiek apspriesti ieroči, kas var izvēlēties un iesaistīt mērķus bez cilvēka kontroles.[9]

Runājot par diskusijām, valstis nav vienisprātis - dažas valstis (Krievija, ASV) uzskata, ka ir vajadzīgas nesaistošas diskusijas, savukārt citas valstis iestājas par juridiski saistošu līgumu par AIS regulējumu. Tomēr vairāk nekā 30 valstu kopīgais paziņojums par AIS, kas iestājas par aizliegumu, liecina par globālu impulsu mākslīgā intelekta AIS regulēšanai.[10]

GGE diskusiju centrālais temats ir jautājums par to, vai AIS var ievērot starptautisko humanitāro tiesību principus bez cilvēku uzraudzības. Papildus juridiskajiem jautājumiem debatēs tiek aplūkots arī jautājums par to, vai ir morāli pieņemami “deleģēt” dzīvības un nāves lēmumus mašīnām. Turklāt viens no lielākajiem jautājumiem ir “atbildības plaisa” - noskaidrot, kas ir atbildīgs, ja AIS pārkāpj starptautiskās humanitārās tiesības. 

2019. gadā GGE pieņēma 11 pamatprincipus, kas palīdzētu vadīt diskusijas un potenciālos noteikumus par AIS. Šo principu mērķis ir nodrošināt, lai autonomie ieroči tiktu izstrādāti un izmantoti saskaņā ar starptautiskajām tiesībām, jo īpaši starptautiskajām humanitārajām tiesībām un starptautiskajām cilvēktiesībām. GGE izveidotajos Pamatprincipos ir vispārējs secinājums, ka ir jāsaglabā cilvēka atbildība.[9] Tiek paustas ētiskas bažas, uzsverot, ka mašīnas nevar pieņemt morālus lēmumus un ka MI AIS var pārkāpt Martensa klauzulu (1899. gada Hāgas II konvencijas preambula) - starptautisko tiesību pamatprincipu, kas nodrošina, ka pat tad, ja nav īpašu juridisku noteikumu, karadarbība joprojām ir saistīta ar vispārējiem humānisma principiem un sabiedrības sirdsapziņas diktātu.

Martensa klauzulas jēga un nozīme ir apstrīdēta - pastāv šauras, mērenas un plašas klauzulas interpretācijas. Spēcīgās valstis parasti dod priekšroku klauzulas “šaurajai” interpretācijai, kas uztver klauzulu kā maznozīmīgu. Plašā interpretācija (kurai priekšroku dod cilvēktiesību organizācijas) paredz, ka klauzula pati par sevi var būt neatkarīgs tiesību avots. Tas nozīmē, ka saskaņā ar šo interpretāciju “iedibinātā paraža”, “cilvēcības principi” un “sabiedrības apziņas diktāts” var būt pamats argumentam, ka starptautiskās humanitārās tiesības aizliedz noteiktu praksi, pat ja tā nav īpaši minēta citur līguma dokumentu tekstā.  Mērena interpretācija pieļauj, ka Martensa klauzula var palīdzēt interpretēt spēkā esošo līgumtiesību tekstu vai atbalstīt argumentu, kas balstīts uz konkrētu to interpretāciju, bet pati par sevi neatbalsta konkrētus aizliegumus.[11] Martensa klauzulas plašo interpretāciju var izmantot, lai argumentētu, ka MI AIS izmantošana saskaņā ar starptautiskajām humanitārajām tiesībām ir nelikumīga, tomēr galu galā tā galvenokārt kalpo kā atgādinājums ņemt vērā starptautisko humanitāro tiesību ētiskās debates.

Secinājumi

Mākslīgais intelekts un autonomo ieroču sistēmas rada vēl nebijušus izaicinājumus starptautisko humanitāro tiesību principu interpretācijai un piemērošanai. Pat ja mēs mācāmies no pagātnes piemēriem, MI AIS izraisa pilnīgi jaunas diskusijas par atbildību un nepieciešamo cilvēka iesaistīšanos, kas vēl vairāk sarežģī starptautisko humanitāro tiesību principu aizsardzības procesus. Lai gan teorētiski mākslīgā intelekta AIS var atbilst humanitāro tiesību principiem, ja tās ir izstrādātas ar atbilstošiem aizsardzības pasākumiem, to pašreizējā attīstība rada būtiskas šaubas par atbilstību praksē. Skaidru starptautisku noteikumu trūkums rada plaisu, padarot MI AIS likumību atkarīgu no valstu prakses un starptautiskajām paražu tiesībām. Starptautisko humanitāro tiesību aizsardzība tehnoloģiju attīstības apstākļos prasa skaidru starptautisku regulējumu attiecībā uz MI AIS. Tikai izmantojot atbildības sistēmas, ievērojot humānos principus un nodrošinot cilvēcisko pārraudzību, ir iespējams saskaņot inovāciju ar ētisko atbildību.

Atsauces