Ģeneratīvais mākslīgais intelekts (šajā rakstā tiks pievērsta uzmanība tieši tērzēšanas botiem) ir kļuvis par ikdienu – pie tā var vērsties ar jebkuru jautājumu un saņemt tūlītēju atbildi. Bērnam komunikācija ar sarunbotu var kļūt par aizrautīgu piedzīvojumu, taču ne vienmēr tā ir tik droša, kā var šķist sākumā.

Kas ir ģeneratīvais mākslīgais intelekts?
Saskaņā ar Eiropas Komisijas 2025. gada Ģeneratīvā mākslīgā intelekta ziņojumā piedāvāto definīciju ģeneratīvais mākslīgais intelekts (angļu valodā “generative artificial intelligence”, turpmāk tekstā – GenAI) ir mākslīgā intelekta sistēmu apakšgrupa, kas imitē cilvēka radošumu un rada jaunu saturu jebkādā izpausmē – teksta, attēla, video, audio vai citādā veidā.[1] Viens no GenAI rīkiem ir tērzēšanas boti jeb sarunboti (angļu valodā “chatbot”). Tā ir datorprogramma, kas simulē cilvēcisku internetsarunu, analizējot tam adresēto informāciju un sniedzot atbildes no datubāzē sameklētiem atbilstīgiem ierakstiem.[2]
Riski bērnu komunikācijā ar GenAI
Amerikas Savienotajās Valstīs (turpmāk tekstā – ASV) 2024. gada februārī 14-gadīgs skolēns Svels Setzers (Sewell Setzer III) ar īpašām vajadzībām pēc pusgadu ilgas sarunas ar tērzēšanas botu Character.AI[3], kuru uzskatīja par savu tuvāko draugu, izdarīja pašnāvību.[4] Zēns regulāri dalījās ar robotu savos pārdzīvojumos un pārdomās, pakāpeniski izolējoties no reālās pasaules, līdz nonāvēja sevi, lai satiktu iedomājamo tēlu aizsaulē. Tajā pašā gadā Svela Setzera māte iesniedza pieteikumu ASV tiesā par tērzēšanas bota īstenoto nepilngadīgā ar īpašām vajadzībām novešanu līdz pašnāvībai. Jaunākajā preses ziņojumā norādīts, ka tiesas prāva ir uzsākta, un tiesnesis noraidīja argumentu, ka mākslīgā intelekta tērzēšanas robotiem būtu tiesības uz vārda brīvību.[5] Šis precedents varētu kļūt par pagrieziena punktu mākslīgā intelekta regulēšanā, ietekmējot bērnu tiesību aizsardzības jautājumu mākslīgā intelekta jomā un atbildības noteikšanas praksi par mākslīgā intelekta radīto kaitējumu visā pasaulē.
Līdzīgi gadījumi atrodami arī senāk. Piemēram, 2017. gadā tiešsaistes saturs – nevēlami personalizēti materiāli, kurus ģenerējis mākslīgais intelekts, – negatīvi ietekmējis kādas 14-gadīgās britu pusaudzes Mollijas Raselas (Molly Russell) garīgo veselību, kas noslēdzies tikpat traģiski – ar pašnāvību.[6] Saskaņā ar Microsoft 2024. gada pētījumu trešdaļa no riskiem, kādus piedzīvo pusaudži vecumā no 13 līdz 17 gadiem, ir pašnāvniecisks un paškaitniecisks saturs.[7] Kā liecina iepriekš minētie gadījumi, ar šādu saturu bērni var saskarties arī izmantojot GenAI. Turklāt 44% respondentu GenAI izmanto reizi nedēļā vai biežāk.[8]
Izpētīts, ka GenAI bērniem rada vismaz triju veidu riskus:
1. “GenAI halucinācijas”, kad algoritms izdomā informāciju, padarot to šķietami ticamu.[9] Šāds saturs ir mākslīgi radīts, tādēļ tas var būt kļūdains, neprecīzs, nepatiess, vecumam neatbilstošs, maldinošs un pat manipulatīvs, ar seksuālu, vardarbīgu, aizspriedumainu vai citādi kaitīgu un provokatīvu ievirzi.[10] Tādās situācijās bērni ir īpaši apdraudēti, jo kritiskās domāšanas prasmes vēl nav pietiekami attīstītas, lai objektīvi izvērtētu saņemto informāciju, līdz ar to ilgstoša saskarsme ar sarunbotu var būtiski ietekmēt pasaules uzskatus un uzvedību.[11] Īpaši bīstama ir maldinoša manipulācija – tā ir ietekmes forma, kurā bērnu var vadīt un pārliecināt rīkoties pretēji viņa labākajām interesēm.[12]
2. Pārlieku uzticēšanās un emocionālā pieķeršanās – personificētos sarunbotus (t.i., botus, kas izstrādāti, lai simulētu cilvēkam līdzīgu mijiedarbību, un kurus raksturo mākslīgi radīto emociju un vajadzību izpausme) jeb “mākslīgos pavadoņus” bērni mēdz uztvert kā reālus saziņas biedrus atkarībā no tiem piedēvētās lomas: draugs, romantiskais partneris, terapeits vai spēles dalībnieks.[13] Paļaujoties uz GenAI sniegto informāciju, bērni sāk just “atkarību” no GenAI beznosacījuma atbalsta un atzinības, kas veicina sociālo izolāciju un tādējādi var kaitēt reālu savstarpējo attiecību veidošanai. GenAl nevar nogalināt tieši, bet manipulēšana ar prātu var būt indivīda tiesību uz domas brīvību pārkāpums, kas rezultējas ar draudiem dzīvībai.[14]
3. Privātuma riski un bērnu un GenAI mijiedarbības komercializācija – veidojoties īpašām emocionālām saitēm ar GenAI lietotnēm, bērni arvien vairāk dalās ar savu personīgo informāciju, foto un videomateriāliem, kas veicina ļaunprātīgu personas datu izmantošanu, t.i., jaunu personificētāku, pielāgotāku un pievilcīgāku lietotņu izstrādi, kurās ar bērnu uzvedību var vieglāk manipulēt.[15]
Eiropas pieeja bērnu aizsardzībai GenAI laikmetā
Lai minētos riskus pēc iespējas ierobežotu, Eiropas Komisija 2025. gada 14. jūlijā pieņēmusi pamatnostādnes bērnu aizsardzībai internetā.[16] Būtiskākais pienesums ar šīm vadlīnijām ir vecuma pārbaudes metožu ieviešana divos veidos:
1) izmantojot Eiropas Savienības digitālās identitātes maku mobilās lietotnes veidā, kas dalībvalstīm jāievieš līdz 2026. gada beigām un kurā varēs glabāt, kopīgot un parakstīt digitālos dokumentus; tas tostarp ietvers iespēju saņemt t.s. “vecuma žetonu”, kuru varēs “uzrādīt” pārbaudei, lai izmantotu attiecīgo digitālo pakalpojumu;
2) izmantojot vienoto Eiropas Savienības vecuma verifikācijas tehnoloģiju – lietotni, ar kuras palīdzību būs iespēja iesniegt “18+ apliecinājumu”, lai pieprasītu piekļuvi tiešsaistes saturam, kas paredzēts pilngadīgajiem; šāda lietotne būs pieejama līdz Eiropas Savienības digitālās identitātes maka ieviešanai.[17]
Attiecībā uz GenAI paredzēts:
1) nodrošināt, ka bērniem pieejamās tiešsaistes platformās mākslīgā intelekta funkcijas, kuras satur tērzēšanas boti, netiek aktivizētas automātiski, ir viegli izslēdzamas, netiek rādītas redzamās vietās un nepilngadīgie netiek mudināti tās izmantot, tostarp komerciālos nolūkos, bet īpaši – gadījumos, kad šādas mākslīgā intelekta sistēmas varētu būt aizliegta prakse saskaņā ar Mākslīgā intelekta akta 5. panta 1. punkta b) apakšpunktu, proti, ja tās izmanto bērnu neaizsargātību tādā veidā, kas rada vai pamatoti var radīt būtisku kaitējumu;[18]
2) saskaņā ar Mākslīgā intelekta akta 50. panta 1. punktu ieviest tehniskus risinājumus, kas skaidri un nepārprotami bērnam draudzīgā valodā informē, ka mijiedarbība notiek ar mākslīgā intelekta sistēmu, nevis cilvēku, un ka mākslīgā intelekta sniegtā informācija var būt neprecīza vai maldinoša;
3) īstenot aizsardzības mehānismus, izmantojot, piemēram, satura klasifikāciju, moderāciju un filtrus, lai bloķētu piekļuvi kaitīgam saturam, tā ģenerēšanai un izplatīšanai, tādējādi novēršot apdraudējumu bērna privātumam un drošībai.[19]
Noslēgums – jauns sākums
ANO Bērnu fonda (angļu valodā “United Nations International Children's Emergency Fund”, UNICEF) starptautiskā pētniecības partnerība “EU Kids Online” šogad īsteno piekto kvantitatīvo Eiropas mēroga pētījumu par bērnu vecumā no 13 līdz 17 gadiem tiešsaistes aktivitāti, kuru papildina jauna tematiskā sadaļa – bērnu pieredze ar GenAI. Tā mērķis ir novērtēt, kā GenAI ietekmē bērnu ikdienas dzīvi, privātumu, drošību un radošumu.[20]
Pētījumā piedalās vairāk nekā 30 valstis, tostarp arī Latvija, un tas norisinās no 2025. gada 3. jūnija līdz 2025. gada 1. novembrim.[21] Starptautiskajiem pētījumiem ir nozīme bērnu tiesību regulējuma attīstībai, jo ar to palīdzību ir iespēja objektīvi izvērtēt pastāvošo un mainīgo situāciju, proti, kādus ieguvumus un kaitējumu rada bērnu pieaugošā piekļuve digitālajām tehnoloģijām un to nodrošināšana, līdz ar to arī veikt atbilstošas izmaiņas bērnu tiesību aizsardzības politikā un piemērošanas praksē.[22] Pētījums palīdzēs izvērtēt aktuālo situāciju Latvijā un pasaulē, iegūt salīdzināmus datus un savlaicīgi reaģēt uz jauniem izaicinājumiem, kas saistīti ar GenAI attīstību un izmantošanu bērnu vidū.
Atsauces
- ^ Abendroth Dias, K., Arias Cabarcos, P., et al. (2025). Generative AI Outlook Report - Exploring the Intersection of Technology, Society and Policy. Publications Office of the European Union, p. 12, https://data.europa.eu/doi/10.2760/1109679, 09.08.2025.
- ^ Chatbot. (n.d.). Oxford English Dictionary, https://doi.org/10.1093/OED/2981785869, 09.08.2025.; Čatbots. (b.g.). Skaidrojošā vārdnīca Tēzaurs.lv, https://tezaurs.lv/%C4%8Datbots:1, 09.08.2025.
- ^ Ģeneratīvs mākslīgā intelekta tērzēšanas bots, kurā, izmantojot interaktīvu vidi, var mijiedarboties ar mākslīgi radītu tēlu reāllaikā. – About Character.AI, https://character.ai/about, 02.08.2025.
- ^ Roose, K. (2024). Can A.I. Be Blamed for a Teen’s Suicide?. The New York Times, https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html, 02.08.2025.
- ^ Judge allows lawsuit alleging AI chatbot pushed Florida teen to kill himself to proceed. (2025). CBC News, https://www.cbc.ca/news/world/ai-lawsuit-teen-suicide-1.7540986, 02.08.2025.
- ^ Alegre, S. (2024). Human rights, robot wrongs: being human in the age of AI. London: Atlantic Books, p. 37-38.
- ^ Global Online Safety Survey (2025.11.feb.). Microsoft. https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/microsoft/final/en-us/microsoft-brand/documents/2025_Global_Online_Safety_Survey.pdf, 23.04.2025. – Cit.no: Larkina, V. (2025). Bērnu tiesiskā aizsardzība no kibervardarbības: krimināltiesiskie un kriminoloģiskie aspekti. Bakalaura darbs. Rīgas Tehniskās universitātes Rēzeknes akadēmija, 47. lpp.
- ^ Global Online Safety Survey (2025.11.feb.). Microsoft. https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/microsoft/final/en-us/microsoft-brand/documents/2025_Global_Online_Safety_Survey.pdf, 02.08.2025.
- ^ Artificial Intelligence Strategy. (2023). Court of Justice of the European Union, p. 8, https://curia.europa.eu/jcms/upload/docs/application/pdf/2023-11/cjeu_ai_strategy.pdf, 09.08.2025.
- ^ Firmino Pinto, S. (2024). AI Friend? Risks, Implications, and Recommendations on Generative AI for Children. Dissertation. Graduate Institute of International and Development Studies Geneva, pp. 22-23, p. 61, https://www.researchgate.net/publication/385212435_AI_Friend_Risks_Implications_and_Recommendations_on_Generative_AI_for_Children, 06.08.2025.
- ^ Firmino Pinto, S. (2024). AI Friend? Risks, Implications, and Recommendations on Generative AI for Children. Dissertation. Graduate Institute of International and Development Studies Geneva, pp. 22-23, p. 61, https://www.researchgate.net/publication/385212435_AI_Friend_Risks_Implications_and_Recommendations_on_Generative_AI_for_Children, 06.08.2025.; Xue, J., et.al. (2023). Bias and Fairness in Chatbots: An Overview. arXiv, http://arxiv.org/abs/2309.08836
- ^ Abendroth Dias, K., Arias Cabarcos, P., et al. (2025). Generative AI Outlook Report - Exploring the Intersection of Technology, Society and Policy. Publications Office of the European Union, p. 75, https://data.europa.eu/doi/10.2760/1109679, 09.08.2025.
- ^ Firmino Pinto, S. (2024). AI Friend? Risks, Implications, and Recommendations on Generative AI for Children. Dissertation. Graduate Institute of International and Development Studies Geneva, Switzerland, pp. 26-27, p. 61, https://www.researchgate.net/publication/385212435_AI_Friend_Risks_Implications_and_Recommendations_on_Generative_AI_for_Children, 06.08.2025.
- ^ Alegre, S. (2024). Human rights, robot wrongs: being human in the age of AI. London: Atlantic Books, p. 39, 44.
- ^ Firmino Pinto, S. (2024). AI Friend? Risks, Implications, and Recommendations on Generative AI for Children. Dissertation. Graduate Institute of International and Development Studies Geneva, Switzerland, pp. 27-28, https://www.researchgate.net/publication/385212435_AI_Friend_Risks_Implications_and_Recommendations_on_Generative_AI_for_Children, 06.08.2025.
- ^ Guidelines on measures to ensure a high level of privacy, safety and security for minors online, pursuant to Article 28(4) of Regulation (EU) 2022/2065. (2025). European Commission, C (2025) 4764 final, https://ec.europa.eu/newsroom/dae/redirection/document/118226, 09.08.2025.
- ^ Guidelines on measures to ensure a high level of privacy, safety and security for minors online, pursuant to Article 28(4) of Regulation (EU) 2022/2065. (2025). European Commission, C (2025) 4764 final, https://ec.europa.eu/newsroom/dae/redirection/document/118226, 09.08.2025.
- ^ Eiropas Parlamenta un Padomes Regula (ES) 2024/1689, ar ko nosaka saskaņotas normas mākslīgā intelekta jomā un groza Regulas (EK) Nr. 300/2008, (ES) Nr. 167/2013, (ES) Nr. 168/2013, (ES) 2018/858, (ES) 2018/1139 un (ES) 2019/2144 un Direktīvas 2014/90/ES, (ES) 2016/797 un (ES) 2020/1828 (Mākslīgā intelekta akts) (2024.13.jūn.). Eiropas Savienības normatīvais akts, https://eur-lex.europa.eu/legal-content/LV/TXT/?uri=OJ:L_202401689
- ^ Guidelines on measures to ensure a high level of privacy, safety and security for minors online, pursuant to Article 28(4) of Regulation (EU) 2022/2065. (2025). European Commission, C(2025) 4764 final, pp. 33-34, p. 41, https://ec.europa.eu/newsroom/dae/redirection/document/118226, 09.08.2025.
- ^ EU Kids Online: about the project. [n.d.]. London School of Economics and Political Science, https://www.lse.ac.uk/media-and-communications/research/research-projects/eu-kids-online/about, 31.03.2025. – Cit.no: Larkina, V. (2025). Bērnu tiesiskā aizsardzība no kibervardarbības: krimināltiesiskie un kriminoloģiskie aspekti. Bakalaura darbs. Rīgas Tehniskās universitātes Rēzeknes akadēmija, 47. lpp.
- ^ EU Kids Online V: Kvantitatīvais Eiropas mēroga pētījums par bērnu tiešsaistes pieredzi. [b.g.]. Latvijas Kultūras akadēmija, https://lka.edu.lv/lv/petnieciba/petijumu-projekti/starptautiskie-petijumu-projekti/eu-kids-online-v/, 02.08.2025.
- ^ Stoilova, M., Livingstone, S., Kardefelt-Winther, D. (2016). Global Kids Online: Researching children’s rights globally in the digital age. Global Studies of Childhood, Volume 6, Issue 4, pp. 455-466, https://doi.org/10.1177/2043610616676035, 08.08.2025.