ANO Bads Bērnu tiesības Cilvēka cieņa Cilvēka orgānu tirdzniecība Cilvēktiesības Cilvēktiesību gids Cilvēktiesību izglītība Cilvēktirdzniecība Dati Demokrātija Dezinformācija Diskriminācija Droša vide Dzimumu līdztiesība ECK ECSR ECT Eiropas Komisija Eiropas Padome Eiropas Parlaments Eiropas Savienība Eiropas Savienības Pamattiesību harta Eiropas Sociālā harta Enerģētika ES EST GDPR Ģimene Humanitārās tiesības ICC ICJ Ieslodzījuma vietas Ilgtspējīga attīstība Imigrācija Integrācija Interneta starpnieki Internets Invaliditāte Īpašuma tiesības Izglītība Jaunatne Jaunrades brīvība Karš Kibernoziedzība Kibervardarbība Klimata krīze Konkurss Korupcija Kriminālprocess Laba pārvaldība Labvēlīga vide LGBT LU Mājokļa un korespondences neaizskaramība Mākslīgais intelekts Mediji Medijpratība Migrācija Minoritātes Nabadzība Naida runa Necilvēcīgas vai pazemojošas izturēšanās aizliegums Nodarbošanās brīvība Patvērums Personas dati Pilsoniskā sabiedrība Preses brīvība Rase Reliģijas brīvība Sabiedrības līdzdalība Satversmes tiesa SCOTUS Seksuālā ekspluatācija Seniori Sievietes Sociālās un ekonomiskās tiesības Sociālie tīkli Spīdzināšanas aizliegums Taisnīga tiesa Tehnoloģijas Tiesības uz brīvību un drošību Tiesības uz dzīvību Tiesības uz īpašumu Tiesības uz privāto dzīvi Tiesībsargs Tiesiskā vienlīdzība Tiesu varas neatkarība Trauksmes celšana Ukraina UNESCO Uzņēmējdarbība Valsts dienests Vārda brīvība Vardarbība Vēlēšanas Veselība Vides piekļūstamība Vides tiesības Viendzimuma laulība Viendzimuma pāru aizsardzība Vienlīdzīgas iespējas Žurnālisms Rādīt visas tēmas

Viedoklis

Mākslīgā intelekta akta priekšlikums – kur mēs esam un kas sagaidāms nākotnē

Kopš 1956. gada, kad Džons Makartijs (John McCarty) ieviesa tādu jēdzienu kā “mākslīgais intelekts”, ir pagājis krietns laika sprīdis, un šobrīd minētais jēdziens ir kļuvis par vienu no ikdienā apspriežamākajiem tematiem visdažādākajos kontekstos, ņemot vērā tā starpdisciplinaritāti un strauji pieaugošo tehnoloģiju daudzveidību. No vienas puses, mākslīgā intelekta izmantošana ir rīks, kas var atvieglot un uzlabot cilvēku ikdienas dzīvi, tomēr, no otras puses, mākslīgā intelekta izmantošana var nopietni ne tikai ietekmēt, bet arī aizskart cilvēka pamattiesības. Tādēļ, lai risinātu šo jautājumu un atrastu līdzsvaru starp atbalstu inovācijām un jauniem tehnoloģiskiem risinājumiem, kā arī tiktu nodrošināta pamattiesību aizsardzība, Eiropas Komisija ir nākusi klajā ar priekšlikumu jaunam Eiropas Savienības tiesību aktam, kurā tiks noteikti saskanīgi noteikumi mākslīgā intelekta sistēmām, tādējādi nodrošinot gan atbalstu jauniem tehnoloģiskiem risinājumiem un inovācijām, gan pamattiesību aizsardzībai Eiropas Savienībā. Par minēto priekšlikumu detalizētāk rakstā.

Unsplash / Hauntedeyes

Eiropas Komisija (EK) 2021. gada 21. aprīlī nāca klajā ar priekšlikumu Mākslīga intelekta aktam (MI akts)[1], kurā paredzēti saskaņoti noteikumi mākslīgā intelekta (MI) sistēmām[2] attiecībā uz to laišanu tirgū, nodošanu ekspluatācijā, kā arī izmantošanu ES. Uzsverams, ka MI akts izstrādāts regulas formā, kas ir tieši piemērojams Eiropas Savienības (ES) tiesību akts un paredzēts, ka šai regulai līdzīgi kā Vispārīgai datu aizsardzības regulai (VDAR) piemitīs Briseles efekts[3] un tā tiks piemērota arī ārpus ES. Savukārt 2023. gada 8. decembrī vairāku trialogu[4] ietvaros, kuri sākās 2023. gada 14. jūnijā un kuros piedalījās Eiropas Parlamenta un Padomes delegācijas, kā arī EK, ES likumdevēji nonāca pie politiskās vienošanās saistībā ar papildinājumiem, precizējumiem un konkretizācijas EK izstrādātajā MI akta priekšlikumā.

Vienlaikus uzsverams, ka uz šī raksta tapšanas brīdi nav pieejams minētā EK priekšlikuma precizētais teksts, ņemot vērā, ka tas pagaidām atrodas tapšanas stadijā un būs pieejams tuvāko nedēļu laikā. Tas nozīmē, ka pēc tam, kad būs tapuši tehniskie projekti precizētajam MI akta priekšlikumam un panākta vienošanās par attiecīgo tiesību normu redakcijām, MI akts tiks oficiāli apstiprināts no ES likumdevēju puses un tas tiks publicēts ES Oficiālajā Vēstnesī, lai tas attiecīgi stātos spēkā 20 dienu laikā pēc tā publicēšanas. Paredzēts, ka lielākā daļa MI akta nosacījumu būs jāpiemēro pēc diviem gadiem.[5] Tomēr tajā pašā laikā MI aktā ietvertie aizliegumi būs piemērojami jau pēc sešiem mēnešiem, savukārt pienākumi saistībā ar vispārīga lietojuma MI (GPAI) modeļiem stāsies spējā pēc 12 mēnešiem no MI akta spēkā stāšanās.[5] 

Tādēļ, ievērojot, ka nav pieejams MI akta papildinātais teksts, autore raksta ietvaros iesākumā sniegs īsu ieskatu par sākotnējo EK MI akta priekšlikumu, ievērojot to, ka šobrīd konkrētais priekšlikums ir jau modificēts no abu ES likumdevēju puses, tādēļ lietderīgāk aplūkot tieši abu ES likumdevēju nostājas par attiecīgo EK priekšlikumu. Savukārt raksta otrajā daļā autore pievērsīsies trialogos panāktai vienošanai, sniedzot detalizētāku ieskatu, kādi aspekti konkretizēti no ES likumdevēju puses. 

Papildus pieminams, ka MI akta priekšlikums būs tiesību akts, kurā risināmie jautājumi skar vairākas jomas (piemēram, konkurences tiesības, kiberdrošības jomu), kā arī daudzus citus tiesību aktus, ņemot vērā, ka tas aptver ne tikai tehnoloģiju un digitalizācijas jautājumu, bet arī datu (tostarp, personas datu) un intelektuālā īpašuma aspektus. Līdz ar to konkrēto tiesību aktu pēc tam, kad būs pieejams precizētais MI akta teksts, jāskata kopsakarā, piemēram, ar VDAR un MI atbildības direktīvu[6] -  to tvērumu un piemērošanu,[7] tomēr minētais aspekts atrodas ārpus šī raksta tvēruma un plašāk pagaidām netiks aplūkots.

EK sākotnējais MI akta priekšlikums – īss ieskats

EK sākotnējais MI akta priekšlikums satur saskaņotus noteikumus MI sistēmu izmantošanai ES, aizliegumus noteiktiem MI sistēmu izmantošanas veidiem, īpašas prasības augsta riska MI sistēmām (piemēram, risku novērtēšanas sistēmu, precizitāti, kiberdrošību u.c. prasības). Vienlaikus MI akta priekšlikumā ietverti pārredzamības noteikumi MI sistēmām, kuras nonāk mijiedarbībā ar fiziskām personām. Tāpat EK priekšlikums ietver MI akta uzraudzības noteikumus. Vienlaikus EK priekšlikumā, ņemot vērā uz risku balstītu pieeju, norādīts uz četrām risku grupām, t.i., nepieņemams risks (aizliegts izmantot MI sistēmas, lai, piemēram, veiktu sociālo novērtēšanu), augsts risks, ierobežots risks (MI sistēmas atļautas, bet jāievēro informēšanas un pārredzamības prasības) un minimāls risks (nav izvirzītas obligātas prasības). Uzsverams, ka šāda pieeja izvēlēta, lai riskus, kā arī apdraudējumu vērtētu katrā gadījumā atsevišķi.[8] Ņemot vērā, ka vienas no lielākajām debatēm starp ES likumdevējiem norisinājās saistībā ar augsta riska MI sistēmām, pieminams, ka EK priekšlikumā kā augsta riska MI sistēmas uzskaitītas, piemēram: 

  1. fizisku personu biometriskā identifikācija un kategorizācija (fizisku personu tālidentifikācija reāllaikā un vēlāklaikā);
  2. MI sistēmas, kuras paredzēts izmantot kā drošības sastāvdaļas ceļu satiksmes pārvaldībā un darbībā, kā arī ūdens, gāzes un elektroenerģijas piegādē un apkures nodrošināšanā;
  3. MI sistēmas, kuras paredzēts izmantot, lai noteiktu fizisku personu piekļuvi izglītības un arodmācību iestādēm vai uzņemtu fiziskas personas tajās;
  4. MI sistēmas, kuras paredzēts izmantot tiesībaizsardzības iestādēs kā melu detektorus vai līdzīgus rīkus vai arī nolūkā noteikt fiziskas personas emocionālo stāvokli;
  5. MI sistēmas, kuras paredzēts izmantot noziegumu analīzei attiecībā uz fiziskām personām un kas ļauj tiesībaizsardzības iestādēm, lai atklātu nezināmus modeļus vai slēptas sakarības datos, veikt meklēšanu lielās, kompleksās saistītu un nesaistītu datu kopās, kuras pieejamas dažādos datu avotos vai dažādos datu formātos;
  6. MI sistēmas, kuru mērķis ir palīdzēt kompetentām publiskā sektora iestādēm izskatīt patvēruma, vīzu un uzturēšanās atļauju pieteikumus, kā arī saistītās sūdzības, nosakot, vai fiziskās personas, kuras iesniegušas pieteikumu uz kādu no minētajiem statusiem, atbilst kritērijiem;
  7. MI sistēmas, kuru mērķis ir palīdzēt tiesu iestādēm faktu un tiesību normu izpētē un interpretēšanā un tiesību normu piemērošanā attiecībā uz konkrētu faktu kopumu.

Savukārt EK priekšlikumā ietvertie aizliegumi ietver, piemēram, MI sistēmas, ar kuru palīdzību var, piemēram, manipulēt ar personām, izmantojot subliminālus paņēmienus, personām to neapzinoties, kā arī, izmantojot kādu neaizsargātu grupu, piemēram, bērnu vai invalīdu, ietekmējamību ar mērķi būtiski iespaidot viņu uzvedību tādā veidā, kas var nodarīt fizisku vai psiholoģisku kaitējumu viņiem vai kādai citai personai. Tāpat EK priekšlikums aizliedz sociālo novērtēšanu, ko vispārējiem mērķiem veic publiskā sektora iestādes. Visbeidzot aizliegta ir arī reāllaika biometriskās tālidentifikācijas sistēmu izmantošana sabiedriskās vietās tiesībaizsardzības nolūkos, ja vien uz konkrēto situāciju nav attiecināmi šauri izņēmumi.

ES Padomes nostāja saistībā ar EK sākotnējo MI akta priekšlikumu

Padome, lai nodrošinātu, ka MI sistēmas definīcija sniedz pietiekami skaidrus kritērijus attiecīgās sistēmas identificēšanai un lai šādas sistēmas tiktu nošķirtas no vienkāršākām programmatūru sistēmām, sašaurināja EK priekšlikumā piedāvāto definīciju, attiecinot to tikai uz tādām sistēmām, kuras izstrādātas, izmantojot mašīnmācīšanās pieeju, kā ar uz loģiku un zināšanām balstītas pieejas. Savukārt saistībā ar aizliegumu tiesībaizsardzības iestādēm sabiedriskās vietās lietot reāllaika biometriskās tālidentifikācijas sistēmas Padome precizēja mērķus, kuru sasniegšanai šādu sistēmu lietošana tiek uzskatīta par nepieciešamu tiesībaizsardzības nolūkos, lai tādējādi tiesībaizsardzības iestādēm izņēmuma kārtā ļautu lietot augsta riska MI sistēmas.[9] 

Tāpat Padome saistībā ar augsta riska MI sistēmām precizēja prasības, pielāgojot tās tādējādi, lai šīs prasības būtu tehniski vieglāk izpildāmas un būtu mazāk apgrūtinošas maziem un vidējiem uzņēmumiem, salīdzinājumā ar EK sākotnējo MI akta priekšlikumā piedāvāto (piemēram, saistībā ar tehnisko dokumentāciju). Turklāt Padome ierosināja papildināt MI akta priekšlikumu ar jauniem noteikumiem saistībā ar MI sistēmām, kuras var lietot daudziem un dažādiem mērķiem, t.i., vispārēja lietojuma MI sistēmas, ņemot vērā, ka šādas sistēmas var tikt integrētas citās sistēmās, kuras sākotnēji nemaz nav bijušas augsta riska MI sistēmas, bet pēc integrācijas par tādu varētu kļūt. Respektīvi, Padomē konkretizēja, ka šādos gadījumos augsta riska MI sistēmām piemērotās prasības attiektos arī uz vispārēja lietojuma MI sistēmām. Vienlaikus Padome precizēja noteikumus saistībā ar inovācijas atbalsta pasākumiem – tika precizēts, ka MI regulatīvajām smilškastēm, ar kurām paredzēts radīt kontrolētu vidi inovatīvu MI sistēmu izstrādei, testēšanai, kā arī validēšanai, jāatļauj MI sistēmas testēt arī reālos apstākļos.[9]  

EP nostāja saistībā ar EK sākotnējo MI akta priekšlikumu

EP uzsvēra nepieciešamību izveidot tehnoloģiski neitrālu, vienotu definīciju tādam jēdzienam kā “mākslīgais intelekts”, lai tas būtu piemērojams arī nākotnes MI sistēmām. Tāpat EP ierosināja būtiski grozīt aizliegumu sarakstu, iekļaujot tajā:[10] 

  1. reāllaika biometriskās tālidentifikācijas sistēmas publiski pieejamās vietās;
  2. pagātnes (vēlāklaika) reāllaika biometriskās tālidentifikācijas sistēmu izmantošanu, izņemot, ja tādas nepieciešamas tiesībaizsardzības iestāžu darbā saistībā ar smagiem noziedzīgiem nodarījumiem un ar tiesas atļauju;
  3. biometriskās kategorizēšanas sistēmas, kurās tiek izmantoti tādi kritēriji kā, piemēram, dzimums, rase, etniskā piederība, reliģija utt.;
  4. prognozējošās policijas sistēmas, kas, piemēram, ietver profilēšanu;
  5. emociju atpazīšanas sistēmas tiesībaizsardzības, valsts robežu kontroles mērķiem, kā arī darba vietās un izglītības iestādēs;
  6. neselektīvu biometrisko datu iegūšanu no sociāliem medijiem vai videonovērošanas kamerām, lai tādējādi izveidotu seju atpazīšanas datubāzes.

Saistībā ar augsta riska MI sistēmām EP ierosināja papildināt MI akta priekšlikumā iekļauto augsta riska MI sistēmu sarakstu, un cita starpā iekļaut arī MI sistēmas, kas var ietekmēt vēlētājus politiskajās kampaņās un kuras izmanto sociālo mediju platformas (piemēram, ieteikumu sistēmas, kuru pamatā ir MI). Papildus EP norādīja, ka, piemēram, tādiem ģeneratīviem pamatu modeļiem kā ChatGPT jāatbilst papildu pārredzamības prasībām, kas varētu izpausties tādējādi, ka tiek atklāts, ka konkrēto saturu ģenerējis tieši MI, vai arī pats pamata modelis jāizstrādā tādējādi, lai tiktu novērsta nelikumīga satura ģenerēšana. Vienlaikus EP uzsvēra, ka ES pilsoņiem jābūt tiesībām iesniegt sūdzības par augsta riska MI sistēmām un jābūt iespējai saņemt paskaidrojumus par lēmumiem, kuru pamatā ir augsta riska MI sistēma un kas būtiski ietekmē to pamattiesības.[10] 

ES likumdevēju vienošanās par EK sākotnējo MI akta priekšlikumu

Salīdzinājumā ar sākotnējo EK izstrādāto MI akta priekšlikumu, ES likumdevēji panāca vienošanos, kas cita starpā ietver: 1) papildināt aizliegumu sarakstu, vienlaikus paredzot tiesībaizsardzības iestādēm sabiedriskās vietās izmantot reāllaika biometriskās tālidentifikācijas sistēmas; 2) noteikumus par GPAI, kas nākotnē var radīt sistēmisku risku (piemēram, OpenAI GPT-4 un Google DeepMind Gemini), kā arī 3) papildu nosacījumus saistībā ar augsta riska MI sistēmām un 4) tiesību aizsardzības pasākumiem, nosakot augsta riska MI sistēmu ieviesējiem pienākumu pirms attiecīgās MI sistēmas ekspluatācijas uzsākšanas veikt novērtējumu par konkrētās sistēmas ietekmi uz pamattiesībām.[11] 

Lai MI sistēmas definīcija paredzētu pietiekami skaidrus kritērijus MI sistēmas nošķiršanai no vienkāršākām programmatūras sistēmām, tiek plānots izmantot Ekonomiskās sadarbības un attīstības organizācijas izstrādāto MI definīciju, tomēr, kāda tieši definīcija tiks izmantota MI aktā, varēs spriest pēc tam, kad būs pieejams papildinātais MI akta teksts. Tāpat paredzēts, ka MI akts netiks piemērots jomām, uz kurām neattiecas ES tiesību akti, kā arī MI aktam nebūtu jāietekmē ES dalībvalstu kompetence valsts drošības jomā, kā arī nav jāattiecas uz tādām MI sistēmām, kuras izmanto tikai militāriem vai aizsardzības mērķiem. Paredzēts, ka MI akts netiks piemērots arī MI sistēmām, kuras izmanto vienīgi pētniecības un inovācijas nolūkā vai arī attiecināts uz personām, kas izmanto MI neprofesionālos nolūkos.[11]  
    
    MI sistēmas četras risku grupas 

MI akta pamatā ir izmantota uz riskiem balstīta pieeja, klasificējot MI sistēmas četrās dažādās riska grupās atkarībā no to izmantošanas, t.i., nepieņemams risks; augsts risks; ierobežots risks; minimāls risks. MI sistēmas, kas rada nepieņemamu risku un ir pretrunā ES vērtībām, kā arī uzskatāmas par nepārprotamu draudu pamattiesībām, tiks aizliegtas ES. Respektīvi, vienošanās paredz, ka MI akts aizliegs: 

  1. biometriskās kategorizācijas sistēmas, kurās tiek izmantoti sensitīvi kritēriji saistībā ar seksuālo orientāciju, reliģiju, rasi utt.
  2. neselektīvu seju attēlu iegūšanu no interneta vai arī videonovērošanas kamerām, lai tādējādi izveidotu seju atpazīšanas datu bāzes;
  3. emociju atpazīšanas sistēmas darba vietās un izglītības iestādēs;
  4. sociālo vērtējumu noteikšanas sistēmas;
  5. MI sistēmas, kas manipulē ar cilvēku uzvedību;
  6. MI sistēmas, kas veic individuālu kriminoloģisko prognozēšanu;
  7. MI pielietošanu, lai izmantotu cilvēku ievainojamību, piemēram, saistībā ar vecumu, invaliditāti, kā arī sociālās vai ekonomiskās situācijas dēļ.

Tāpat, lai arī reāllaika biometriskās identifikācijas sistēmas principā tiks aizliegtas, tomēr paredzēti arī vairāki izņēmumi šādu sistēmu izmantošanai publiski pieejamās vietās tiesībaizsardzības nolūkos, bet ar tiesas atļauju un saistībā ar smagiem kriminālnoziegumiem, kas būs izsmeļoši uzskaitīti MI aktā.[12] No šobrīd pieejamās informācijas izriet, ka MI akts paredzēs, piemēram, šādus kriminālnoziegumus: terorisms, cilvēku tirdzniecība, bērnu seksuālā izmantošana, smagi miesas bojājumi, cilvēku orgānu un audu nelikumīga tirdzniecība, noziegumi pret vidi, organizēta vai bruņota laupīšana, sabotāža, slepkavība.[13] 

Turklāt jāuzsver, ka MI aktā būs noteikts, ka pirms tiks izmantotas reāllaika biometriskās identifikācijas sistēmas būs jāveic ietekmes uz pamattiesībām novērtējums un jāinformē par attiecīgās MI sistēmas izmantošanu nacionālo datu aizsardzības iestādi,[14] kā arī reāllaika biometrisko identifikācijas sistēmu izmantošana būs ierobežota laikā un vietā.[15] 

Savukārt MI sistēmas, kurām ir ievērojams potenciāls nodarīt kaitējumu veselībai, drošībai, pamattiesībām, videi, demokrātijai un tiesiskumam, tiks klasificētas kā augsta riska MI sistēmas.[16] Šādām MI sistēmām tiks piemērotas visaptverošas obligātas atbilstības prasības, kas cita starpā attieksies uz risku mazināšanu, datu pārvaldību, detalizētu dokumentāciju, cilvēku uzraudzību, pārraudzību un kiberdrošību.[17] 

Vienošanās paredz arī pamattiesību ietekmes novērtējumus un ES pilsoņu tiesības iesniegt sūdzības par augsta riska MI sistēmām, kā arī saņemt skaidrojumus par lēmumiem, kuru pamatā ir augsta riska MI sistēma un kas ir ietekmējusi šo pilsoņu pamattiesības.[18] Savukārt attiecībā uz MI sistēmām, kas klasificētas kā ierobežota riska grupa, tostarp, MI sistēmas, kas ģenerē, piemēram, dziļviltojumus, tiks pakļautas minimālām pārskatāmības prasībām. Šādas prasības cita starpā ietvers lietotāju informēšanu par to, ka tie mijiedarbojas ar MI sistēmu, kā arī būs attiecīgi jāmarķē audio, video, teksta vai attēla saturs, kas būs ģenerēts, izmantojot MI sistēmu, lai tādējādi personu informētu, ka konkrētais saturs ir MI radīts.[19] Uzsverams, ka pēdējā riska grupā no četrām ietilpst visas pārējās MI sistēmas, kas atrodas ārpus pārējām trim riska grupām, un šādas MI sistēmas pieskaitāmas pie minimāla riska vai arī bez riska sistēmām. Piemēram, suragātpasta filtri,[19] kas attiecīgi nozīmē, ka uz tām netiek izvirzītas obligātas prasības. 

    Vispārējas nozīmes MI modeļi 

Pēc ilgstošām debatēm par “pamatu modeļu” regulējumu MI aktā, tika panākta vienošanās saistībā ar GPAI jēdzienu un pienākumu nošķiršanu divos līmeņos saistībā ar GPAI modeļiem, t.i., pirmajam līmenim ir vairāki pienākumi, kas attiecas uz visiem GPAI modeļiem, bet otrajam līmenim ir arī papildu pienākumu kopums, kas attiecas uz GPAI modeļiem ar sistēmisku risku. Saistībā ar pirmo līmeni visiem GPAI modeļu nodrošinātājiem būs jāievēro pārskatāmības prasības, cita starpā izstrādājot tehnisko dokumentāciju, kā arī būs jāievēro ar ES autortiesībām saistītie tiesību akti un jāsniedz detalizēti kopsavilkumi par apmācībā izmantoto saturu.[20] Savukārt zemāka līmeņa GPAI modeļi tiks atbrīvoti no pārskatāmības prasībām, kamēr tie atrodas pētniecības un izstrādes posmā vai arī tie ir atvērtā koda modeļi.[21] 

Attiecībā uz otrā līmeņa GPAI modeļiem, kas noteikti kā tādi, kas ietver sistēmisku risku, tiks piemēroti stingrāki noteikumi, tostarp, būs jāveic modeļu novērtēšana, jāmazina sistēmiskos riskus, jāziņo EK par nopietniem incidentiem, jānodrošina kiberdrošība un jāziņo par to energoefektivitāti.[22] Tāpat uzsverams, ka GPAI modeļi ar sistēmisku risku var atbilst MI aktam, ievērojot prakses kodeksus, vismaz līdz brīdim, kad tiks publicēti saskaņotie ES standarti. Paredzēts, ka minētos prakses kodeksus kopā izstrādās nozare, zinātnieku kopiena, pilsoniskā sabiedrība un citas ieinteresētās puses sadarbībā ar EK.[23] 

    Naudas sodi un MI akta piemērošana un uzraudzība 

MI akta piemērošana galvenokārt paredzēta ar ES dalībvalstu kompetento iestāžu starpniecību, kā tas, piemēram, ir arī VDAR gadījumā. Eiropas MI birojam, kas būs izveidots iekš EK, būs jānosaka, piemēram, standarti, tostarp saistībā ar GPAI modeļiem, lai tādējādi nodrošinātu šī jautājuma koordināciju ES līmenī. Šie standarti ietvers, piemēram, prakses kodeksu izstrādi. Tāpat Eiropas MI birojs koordinēs MI politiku un sadarbību starp iesaistītajām ES iestādēm, struktūrām un aģentūrām, kā arī ekspertiem un ieinteresētajām personām. Savukārt Eiropas MI padome, kas sastāvēs no ES dalībvalstu pārstāvjiem, konsultēs EK.[23] 

Vienošanās arī paredz naudas sodus saistībā ar MI akta pārkāpumiem, kas būs atkarīgi no MI sistēmas veida, uzņēmuma lieluma un pārkāpuma smaguma. Uzsverams, ka vienošanās paredz samērīgākus naudas sodus mazākiem un jaunizveidotiem uzņēmumiem. Turklāt MI akts ļaus fiziskām, kā arī juridiskām personām ziņot par neatbilstības gadījumiem attiecīgai uzraudzības iestādei. Saistībā ar naudas sodiem norādāms, ka tie varētu būt šādi:[24]  

  1. līdz 35 miljoniem EUR vai 7 % no kopējā globālā apgrozījuma iepriekšējā finanšu gadā (atkarībā no tā, kura vērtība lielāka) – par pārkāpumiem saistībā ar aizliegtas prakses izmantošanu;
  2. līdz 15 miljoniem EUR vai 3 % no kopējā globālā apgrozījuma iepriekšējā finanšu gadā – par MI akta pienākumu neievērošanu, arī par GPAI modeļiem piemērojamo noteikumu pārkāpumiem;
  3. līdz 7,5 miljoniem EUR vai 1,5 % no kopējā globālā apgrozījuma iepriekšējā finanšu gadā – par nepareizas, nepilnīgas vai maldinošas informācijas sniegšanu pieteiktajām struktūrām un valsts kompetentajām iestādēm atbildē uz pieprasījumu.

Katrai pārkāpumu kategorijai mazajiem un vidējiem uzņēmumiem robežvērtība būs mazākā no abām summām, bet citiem uzņēmumiem – lielākā no tām. Tāpat, lai saskaņotu ES dalībvalstu noteikumus un praksi naudas sodu noteikšanā, EK, pamatojoties uz MI padomes ieteikumiem, izstrādās arī pamatnostādnes.[25] 

Nepilnības, kurām jāpievērš uzmanība

Lai arī ES likumdevēji ir papildinājuši un precizējuši EK sākotnējo priekšlikumu MI aktam, noslēdzot politisko vienošanos, tomēr jānorāda arī uz vairākām nepilnībām, t.i., MI izstrādātājiem pašiem būs iespēja noteikt, vai viņu MI sistēma tiek uzskatīta par augsta riska sistēmu. Tāpat pastāv dažādi izņēmumi augsta riska MI sistēmām – saistībā ar valsts drošību, tiesībaizsardzības iestāžu darbu, kā arī migrācijas jomā, kas savukārt rada risku, ka attiecīgās iestādes var atkāpties no MI akta pamatnoteikumu piemērošanas. Tomēr, kamēr nav pieejams konkretizētais MI akta teksts no ES likumdevēju puses, nevar izdarīt secinājumus, kādus konkrētus kritērijus un kādā redakcijā ES likumdevējs tos noteiks MI aktā saistībā ar izņēmumiem, ņemot vērā, ka viens no izņēmumiem ir MI sistēmas, kuras tiek izmantotas, lai, piemēram, atpazītu patvēruma meklētāju emocijas. Līdz ar to šī raksta autore šobrīd tikai vērš uzmanību uz iespējamiem problēmjautājumiem, jo valsts drošība, tiesībaizsardzības iestāžu darbība un migrācijas jautājumi cieši saistīti ar pamattiesībām un to aizsardzību, kā tas izriet ne tikai no Pamattiesību hartas, bet arī, piemēram, Satversmes un vispārējiem tiesību principiem. 

Raksts ir sagatavots ar Sabiedrības integrācijas fonda finansiālu atbalstu no Latvijas valsts budžeta līdzekļiem. Par raksta saturu atbild raksta autors saskaņā ar Cilvēktiesības.info lietošanas noteikumiem.

Atsauces

  1. ^ Priekšlikums Eiropas Parlamenta un Padomes regulai, kas nosaka saskaņotas normas mākslīgā intelekta jomā un groza dažus Savienības leģislatīvos aktus. Plašāka informācija par attiecīgā priekšlikuma virzību pieejama: https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence.
  2. ^ COM/2021/206 final. Pieejams: https://eur-lex.europa.eu/legal-content/LV/TXT/?uri=CELEX%3A52021PC0206.
  3. ^ Bradford, Anu, The Brussels Effect: How the European Union Rules the World (New York, 2020; online edn, Oxford Academic, 19 Dec. 2019), https://doi.org/10.1093/oso/9780190088583.001.0001
  4. ^ Trialogs ir jebkura trīspusēja sanāksme, kas ES likumdošanas procesa laikā tiek rīkota starp trim attiecīgajām iestādēm.
  5. a, b European Commission, "Commission welcomes political agreement on Artificial Intelligence Act", 9.12.2023. Pieejams: https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473
  6. ^ Sk. plašāk: Soņeca V. Mākslīgais intelekts un civiltiesiskā atbildība. Jurista Vārds, 28.02.2023., Nr. 9 (1275), 2.lpp. 
  7. ^ Procedūra 2022/0303/COD. Pieejams: https://eur-lex.europa.eu/legal-content/LV/HIS/?uri=CELEX%3A52022PC0496.
  8. ^ COM/2021/206 final. Pieejams: https://eur-lex.europa.eu/legal-content/LV/TXT/?uri=CELEX%3A52021PC0206.
  9. a, b ES Padomes nostāja. Pieejams: https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/lv/pdf.
  10. a, b ES Parlamenta nostāja. Pieejams: https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf.
  11. a, b European Council, "Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world", 9.12.2023. Pieejams: https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/.
  12. ^ European Parliament, "Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI", 9.12.2023. Pieejams: https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai.
  13. ^ European Commission, "Artificial Intelligence – Questions and Answers", 12.12.2023. Pieejams: https://ec.europa.eu/commission/presscorner/detail/lv/QANDA_21_1683.
  14. ^ Press Conference on the Political Agreement, "Q&A – Part 7", 9.12.2023. Pieejams: https://newsroom.consilium.europa.eu/events/20231206-artificial-intelligence-act-trilogue.
  15. ^ European Parliament, "Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI", 9.12.2023. Pieejams: https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai.
  16. ^ European Commission, "Commission welcomes political agreement on Artificial Intelligence Act", 9.12.2023. Pieejams: https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473.
  17. ^ European Council, "Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world", 9.12.2023. Pieejams: https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/.
  18. ^ European Parliament, "Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI", 9.12.2023. Pieejams: https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai.
  19. a, b European Commission, "Commission welcomes political agreement on Artificial Intelligence Act", 9.12.2023. Pieejams: https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473.
  20. ^ European Parliament, "Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI", 9.12.2023. Pieejams: https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai.
  21. ^ Press Conference on the Political Agreement, "Q&A – Part 8", 9.12.2023. Pieejams: https://newsroom.consilium.europa.eu/events/20231206-artificial-intelligence-act-trilogue
  22. ^ European Parliament, "Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI", 9.12.2023. Pieejams: https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai.
  23. a, b European Commission, "Commission welcomes political agreement on Artificial Intelligence Act", 9.12.2023. Pieejams: https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473.
  24. ^ European Council, "Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world", 9.12.2023. Pieejams: https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/.
  25. ^ European Commission, "Commission welcomes political agreement on Artificial Intelligence Act", 9.12.2023. Pieejams: https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473.