ANO Bads Bērnu tiesības Cilvēka cieņa Cilvēka orgānu tirdzniecība Cilvēktiesības Cilvēktiesību gids Cilvēktiesību izglītība Cilvēktirdzniecība Dati Demokrātija Dezinformācija Diskriminācija Droša vide Dzimumu līdztiesība ECK ECSR ECT Eiropas Komisija Eiropas Padome Eiropas Parlaments Eiropas Savienība Eiropas Savienības Pamattiesību harta Eiropas Sociālā harta Enerģētika ES EST GDPR Ģimene Humanitārās tiesības ICC ICJ Ieslodzījuma vietas Ilgtspējīga attīstība Imigrācija Integrācija Interneta starpnieki Internets Invaliditāte Īpašuma tiesības Izglītība Jaunatne Jaunrades brīvība Karš Kibernoziedzība Kibervardarbība Klimata krīze Konkurss Korupcija Kriminālprocess Laba pārvaldība Labvēlīga vide LGBT LU Mājokļa un korespondences neaizskaramība Mākslīgais intelekts Mediji Medijpratība Migrācija Minoritātes Nabadzība Naida runa Necilvēcīgas vai pazemojošas izturēšanās aizliegums Nodarbošanās brīvība Patvērums Personas dati Pilsoniskā sabiedrība Preses brīvība Rase Reliģijas brīvība Sabiedrības līdzdalība Satversmes tiesa SCOTUS Seksuālā ekspluatācija Seniori Sievietes Sociālās un ekonomiskās tiesības Sociālie tīkli Spīdzināšanas aizliegums Taisnīga tiesa Tehnoloģijas Tiesības uz brīvību un drošību Tiesības uz dzīvību Tiesības uz īpašumu Tiesības uz privāto dzīvi Tiesībsargs Tiesiskā vienlīdzība Tiesu varas neatkarība Trauksmes celšana Ukraina UNESCO Uzņēmējdarbība Valsts dienests Vārda brīvība Vardarbība Vēlēšanas Veselība Vides piekļūstamība Vides tiesības Viendzimuma laulība Viendzimuma pāru aizsardzība Vienlīdzīgas iespējas Žurnālisms Rādīt visas tēmas

Viedoklis

Vai ir iespējams atrast līdzsvaru starp mākslīgo intelektu un cilvēktiesībām?

Mākslīgā intelekta (AI) pasaulē, kas arvien attīstās, rodas būtisks jautājums: vai mēs varam AI salāgot ar cilvēktiesībām un tādiem jautājumiem kā privātums, diskriminācija un dezinformācija? Šajā rakstā tiek pētīta AI ietekme uz cilvēktiesībām, vienlaikus apspriežot Latvijas AI stratēģiju un Eiropas Savienības (ES) plānu regulēt AI. Rakstā mēģināts noteikt, vai līdzsvara panākšana starp AI un cilvēktiesībām patiešām ir sasniedzama.

Possessed photography / Unsplash

Iespējamā AI ietekme uz cilvēktiesībām

Mūsdienās mākslīgajam intelektam ir vairākas definīcijas, taču viena no visintriģējošākajām definīcijām ir saistīta arī ar vissatraucošāko. Ideja, ka pastāv mašīna, kas spēj pārspēt savu programmēšanu un pieņemt lēmumus, kuri līdzinās cilvēka pieņemtajiem[1], ir labākajā gadījumā mazliet biedējoša. Zinātnieki šo formulē kā – “mākslīgais intelekts automatizē lēmumus, kurus agrāk pieņēma cilvēki”[1].  Šī formulējuma secinājums ir skaidrs: cilvēki agrāk pieņēma šos lēmumus, bet tagad tie vairs nav jāpieņem. Rodas jautājums: kādas būs sekas, ja AI pieņems cilvēku lēmumus? Iespējama masveida darba vietu zaudēšana.[1] Nodarbinātības iespēju zaudēšana iespējams pati par sevi nav cilvēktiesība, bet tā noved pie cilvēktiesību pārkāpumiem, kas saistīti ar spēju iegūt un saglabāt sev iztikas līdzekļus.

Starptautiskās cilvēktiesības garantē brīvību no diskriminācijas, kā arī vīriešu un sieviešu līdztiesību. Piemēram, mākslīgā intelekta vadītas darbā pieņemšanas sistēmas, ja tās netiek rūpīgi izstrādātas un uzraudzītas, var potenciāli pastiprināt dzimumu aizspriedumus, tādējādi pārkāpjot šīs tiesības uz vienlīdzību. Personām ir arī tiesības uz darbu[2], kas ietver brīvību izvēlēties darbu un pieņemt darba piedāvājumu, kā arī tiesības uz pienācīgiem darba apstākļiem. Darba ņēmēji var veidot arodbiedrības, streikot un saņemt sociālo nodrošinājumu. Tomēr to var apdraudēt pieaugošā darba vietu automatizācija.

Cilvēktiesības ir savstarpēji saistītas. Piemēram, ūdens attīrīšanas iekārtas, kas piesārņotu dzeramo ūdeni, varētu pārkāpt tiesības uz veselību un tiesības uz dzīvību.[2] Šādā gadījumā mākslīgā intelekta izmantošana, lai pieņemtu lēmumus par dzeramā ūdens attīrīšanu, varētu izraisīt nāves gadījumus vai slimības, ja tiktu pieņemts nepareizs lēmums. Šī situācija tieši pārkāptu indivīdu tiesības uz veselību un potenciāli varētu ietekmēt viņu tiesības uz dzīvību, ilustrējot to, kā mākslīgais intelekts var ietekmēt vairākas cilvēktiesības vienlaikus. Ņemot vērā mākslīgā intelekta būtību, daudzi uzņēmumi izstrādā savus noteikumus par to, kā mijiedarboties ar mākslīgo intelektu vai to izmantot.

Mākslīgā intelekta izmantošanu var tikt raksturota kā “regulējuma kustīgu mērķi” (angļu valodā “regulatory moving target”), tādēļ, ka ir gan ļoti daudz ieguvumu, gan izmantošanas risku.[3] Tas it sevišķi attiecas uz personas tiesībām, kas saistītas ar intelektuālo īpašumu. Ir ievērojams skaits jomu, kuras skar AI izmantošana: tiesībsubjektība, intelektuālais īpašums, diskriminācija, netaisnīgums, darba aizsardzība, privātums un datu aizsardzība, kiberdrošība, tiesu pieejamība, atbildība par kaitējumu, atbildība un uzraudzība”.[3] Cilvēktiesību jautājumi jau ir pamatā lielākajai daļai ar datu izmantošanu saistīto lēmumu.[4]

Tiesības uz privātumu ir īpaši svarīgas mākslīgā intelekta laikmetā. Piemēram, sejas atpazīšanas tehnoloģija ir radījusi bažas par privātumu un uzraudzību, jo tā var izsekot cilvēkus bez viņu piekrišanas. Sejas atpazīšanas programmatūras izmantošana, kurā mākslīgais intelekts pieņem lēmumu par to, kam pieder seja, var palielināt rasu nevienlīdzību arestu un ieslodzījumu jomā. Tāpat mākslīgā intelekta izmantošana, apstrādājot personas medicīnisko dokumentāciju, var radīt, no vienas puses, neprecīzu diagnozi un, no otras puses, diskrimināciju šīs diagnozes rezultātā.[5] Idejas par taisnīgumu un atbildību var kļūt ļoti neskaidras, ja haosu rada nevis tieši cilvēks, bet mākslīgais intelekts. Tomēr Latvija, tāpat kā visas citas valstis, nevar virzīties uz priekšu bez mākslīgā intelekta datorikas tehnoloģijas un jaudas. Izaugsme būtu ierobežota bez mākslīgā intelekta ieviešanas. Galvenais būs turpināt mākslīgo intelektu ar cilvēktiesībām. [6]

Latvijas AI stratēģija

Visā pasaulē ir ļoti dažādas stratēģijas, kā valstis izvēlas rīkoties ar mākslīgo intelektu. Dažas valstis izvēlas izmantot stratēģiju, kas vērsta uz digitālo pasauli kopumā; citas valstis koncentrējas tikai uz mākslīgā intelekta pasauli.[7]

Latvijas mākslīgā intelekta stratēģija tika publicēta 2020. gada februārī.[8] Politikas galvenie mērķi ir palielināt izpratni par mākslīgo intelektu, izmantojot izglītības reformas, un palielināt vispārējo mākslīgā intelekta kompetenci. Būtu jāveicina mākslīgā intelekta ieviešana un attīstība. Latvijai būtu jāiesaistās gan nacionālajā, gan starptautiskajā sadarbībā, un tai būtu jāizveido atbilstoša telekomunikāciju infrastruktūra, lai to paveiktu. Infrastruktūrai būtu nepieciešami ievērojami finanšu ieguldījumi. Visbeidzot, Latvijai būtu jāizstrādā tiesiskais regulējums, lai gan atbalstītu, gan ierobežotu AI. Ir jāpievēršas Ekonomiskās sadarbības un attīstības organizācijas (ESAO) principiem, kas vērsti uz cilvēciski orientētu vērtību un taisnīguma veicināšanu darba tirgū. Šajos principos uzsvērts, cik svarīgi ir izglītot darbiniekus, lai viņi attīstītu savas prasmes un pielāgotos mainīgajām prasībām pastāvīgi mainīgajā darba tirgū. Nodrošinot, ka cilvēki ir labi sagatavoti jauniem izaicinājumiem un iespējām, ESAO mērķis ir radīt iekļaujošāku un taisnīgāku darbaspēku.

Latvijas valdība par prioritāti mākslīgā intelekta lietojumam ir noteikusi transportu (cilvēku un preču), kā arī kultūru, tieslietu sistēmu, tulkošanu un lauksaimniecību. Lai gan dažās prioritārajās nozarēs AI tiks izmantots lēmumu pieņemšanai, citās nozarēs tas varētu tikt izmantots iekārtu, tostarp transporta, automātiskai vadībai.[9]

Kopējo Latvijas stratēģiju attiecībā uz AI var apkopot divos vārdos: izmantot AI. Visi materiāli ir veidoti, raugoties no perspektīvas, kā atbalstīt AI izmantošanu un padarīt to vieglāku vai izdevīgāku iedzīvotājiem. Kā piemēru var minēt to, ka, nodrošinot iedzīvotājiem papildu izglītību, valsts tieši uzlabos cilvēkkapitāla vērtību un palielinās ražošanu organizācijās. Naudas līdzekļi, kas paredzēti pētniecības atbalstam, neizbēgami dos labumu ekonomikas tirgum un var arī uzlabot organizāciju produktivitāti. Attēlu analīzes, robotikas, runas atpazīšanas un citu matemātikas un informātikas prasmju mācīšana palīdzēs uzņēmumiem izstrādāt jaunus produktus un nodrošinās augstāku darbinieku sasniegumu līmeni tehniskajās jomās.

Tāpat uz mākslīgo intelektu orientēti informācijas un komunikāciju tehnoloģiju (IKT) pakalpojumi uzlabos datu apstrādi, datu vākšanu un datu pārvaldību. Viedās specializācijas stratēģija palielinās inovāciju un vērtību biomedicīnā, pilsētas darbībā un materiālos, kas palīdzēs stabilizēt ekosistēmu.[9] Stratēģijā ir arī plānots radīt stimulu mākslīgā intelekta izmantošanai, lai attīstītu ieguvumus sabiedrībai saistībā ar vides aizsardzību, klimata pārmaiņām un satelītu izmantošanu vides un sabiedrības aizsardzībai un anomāliju atklāšanai.

Eiropas Savienības AI regulējuma priekšlikumi

Izpētot 2021. gada aprīlī ierosināto ES Mākslīgā intelekta likumu (AIA)[10], var secināt, ka tā mērķis ir izveidot mākslīgā intelekta tiesisko regulējumu ES, nodrošinot, ka mākslīgā intelekta sistēmas tiek izmantotas droši un tiek ievērotas pamattiesības. AIA pamatā ir uz risku balstīta pieeja[11], klasificējot AI lietojumus dažādās kategorijās, un katrai no tām piemēro dažāda līmeņa regulatīvo uzraudzību. Bieži vien rodas jautājums, kur šajās riska kategorijās iederētos tādi lielie valodas modeļi kā ChatGPT, kas spēj saprast un ģenerēt tekstu līdzīgi kā cilvēks.

AIA riskus klasificē kā nepieņemamu, augstu, ierobežotu vai minimālu. ChatGPT iespējams tiktu atzīta par augsta riska tehnoloģiju, jo tiek uzskatīts, ka tā apdraud cilvēku tiesības, veselību un drošību. Šāda novērtējuma iemesls varētu būt kaut kas tik vienkāršs kā ChatGPT ģenerētā medicīniskā informācija un apdraudējums kādam, kas seko tās padomiem. ES ierosinātie AI līmeņi sniedz vispārīgas norādes un palīdz saprast relatīvo risku.

Viens no būtiskākajiem trūkumiem varētu būt tas, ka priekšlikums attiecas uz informācijas izvadi, nevis ievadi. Šajos noteikumos netiek ņemts vērā vecais teiciens “atkritumi iekšā, atkritumi ārā”. Lai gan līmeņi diezgan labi izskaidro risku, tie attiecas tikai uz izvades riskiem. Ja personas, kas apmāca mākslīgo intelektu, to dara nepareizi, tad algoritmi var sniegt nepareizus vai pat neobjektīvus datus. Ierosinātie noteikumi paredz sodus par šo robotu izmantošanu, lai izplatītu nepatiesu informāciju vai izmantotu informāciju nelikumīgu darbību veikšanai, taču šis regulējums nav pārbaudīts un var būt nepietiekams.

Ir nepieciešami arī tādi noteikumi, kas aizsargātu personas no darbavietu zaudēšanas, piemēram, darbā, kas saistīts ar apmācībām vai teksta rediģēšanu. Regulējums var palīdzēt risināt šo problēmu, veicinot atbildīgu mākslīgā intelekta ieviešanu, pieprasot darba devējiem nodrošināt skarto darbinieku pārkvalificēšanos un kvalifikācijas celšanu un atbalstot sociālās drošības tīklu izveidi darbiniekiem, kuri zaudē darbu. Šādā veidā regulējums var veicināt līdzsvaru starp mākslīgā intelekta inovācijām un darba vietu drošību, nodrošinot abpusēji izdevīgu mākslīgā intelekta sistēmu un darba ņēmēju līdzās pastāvēšanu.

Apsverot, vai ES priekšlikums būtu jāpaplašina vai jāgroza, lai ņemtu vērā vajadzības, kas kļūst acīmredzamas, pamatojoties uz ģeneratīvām AI sistēmām, ir svarīgi atcerēties, ka “vajadzības” ir ļoti neprecīzs termins. Šī tehnoloģija turpina ļoti strauji augt un attīstīties. Tiesību aktiem būs grūti sekot līdzi tehnoloģijai, taču ES ir jāmaina savi priekšlikumi, lai pieprasītu lielāku atbildību un pārredzamību. Elektroniskās komercijas tiesību profesors Reed apgalvo, ka ir svarīgi nodrošināt pārredzamību gan pirms lietotājs piekļūst datiem, gan pēc tam.[12] Lai nodrošinātu šo pārredzamību, ir jābūt pieejamiem cilvēkiem, kas kontrolē gan ievadīto, gan izejošo informāciju. Ir jāizstrādā metode, lai pārbaudītu, vai netiek izmantota dezinformācija, viltus ziņas un viltus iniciatīvas tiešsaistē.

Viens no svarīgākajiem jautājumiem ir tas, kā tiek apstrādāti “lielie dati”, jo īpaši attiecībā uz personas privātuma aizsardzību.[13] Vienkāršoti runājot, "lielie dati" ir milzīgs personas datu apjoms, ko rada dažādi avoti, piemēram, sociālie plašsaziņas līdzekļi, sensori un tiešsaistes darījumi. 

Pastāv arī ļoti reāla iespēja, ka personas dati netiek publiskoti paši par sevi; tā vietā mākslīgā intelekta tehnoloģija var izdarīt pieņēmumus vai veikt nepareizu interpretāciju, pamatojoties uz teorētisku informācijas kombināciju, nevis faktiem.[14] Lai izprastu šo jēdzienu, var aplūkot šādu piemēru. Izmeklētājs apkopo informāciju un pēc tam izdara secinājumus par notikušo. Secinājumi var būt pareizi vai nepareizi, taču izmeklēšanā iesaistītajai personai joprojām ir jāsadzīvo ar pieņēmuma rezultātiem. Tomēr, kā norāda citi analītiķi, iespējams, ir tehniski veidi, kā apiet personas datu izpaušanu; iespējams, nav nepieciešams šo jautājumu pastāvīgi atkārtoti likumdošanā risināt.[15] Akadēmiķi tā vietā ir apgalvojuši, ka visa pārredzamības koncepcija var būt kļūdaina; pārredzamības ideja lasītājiem vai lietotājiem rada iespaidu, ka kaut kas tiek darīts, lai viņus aizsargātu, lai gan tas tā var nebūt.[16]

Daži ir arī apgalvojuši, ka ES Vispārīgās datu aizsardzības regulas (VDAR) spēkā esošajos pantos trūkst valodas precizitātes, kā rezultātā starp dažādiem noteikumiem var rasties pretrunas vai neskaidrības.[17]

Lai AI varētu lietot uzticami, būtiski apzināt riskus. Pat ja tiek ievērotas tehniskās prasības datu un informācijas drošībai, ir jāievēro arī ētiskās vadlīnijas un jāizpēta veidi, kā mazināt jebkādu risku.[18] Galvenais, lai izpildītu šīs prasības, ir uzsvērt uz cilvēku orientētu pieeju AI darbavietā un uzraudzīt AI, lai nodrošinātu, ka tas atbilst organizācijas vajadzībām. Vajadzētu arī paaugstināt vispārējo izglītības līmeni zinātnes un tehnoloģiju jomās. Lai to panāktu, ilgtermiņā ir jāiegulda līdzekļi dabaszinātņu un tehnoloģiju izglītībā, sākot no pirmsskolas un beidzot ar augstāko izglītību.[19]

Iespējams, galvenais, lai izprastu ES pieeju mākslīgajam intelektam, ir secinājums, ka “digitalizācija rada būtiskas pārmaiņas mūsu vidē”[20], un dažas no šīm pārmaiņām ietekmēs juridisko atbildību, jo īpaši, ja jautājums ir saistīts ar personas datiem.

Secinājumi

Panākt līdzsvaru starp mākslīgo intelektu un cilvēktiesībām ir iespējams, taču tas prasīs nebeidzamu modrību. Tiesību aktiem var būt ārkārtīgi grūti sekot līdzi tehnoloģijām un tas jo īpaši attieksies uz situāciju, kad tehnoloģija atklāti vai slēpti palīdz pieņemt lēmumus, kas noteiks, ar kādiem noteikumiem tiks mēģināts to kontrolēt. Cilvēktiesību joma ir diezgan plaša, un tā aptver daudzas mākslīgā intelekta iejaukšanās vai izmantošanas iespējas. Jo vairāk iespēju izmantot AI, jo lielāka iespēja, ka tiks pārkāptas cilvēktiesības. Nākotnes uzdevums cilvēktiesību jomā saistībā ar AI būs palielināt AI izmantošanu, vienlaikus samazinot AI veikto cilvēktiesību pārkāpumu skaitu. Lai panāktu šo līdzsvaru, būs pastāvīgi jācenšas, un būs pastāvīgi jāpārvērtē, vai vienādojums joprojām ir līdzsvarots, vai arī būs jāpielāgo normatīvais regulējums vai tehnoloģija, lai aizsargātu to cilvēku tiesības, kuri to izgudroja.

Raksts ir sagatavots ar Sabiedrības integrācijas fonda finansiālu atbalstu no Latvijas valsts budžeta līdzekļiem. Par raksta saturu atbild raksta autors saskaņā ar Cilvēktiesības.info lietošanas noteikumiem.

Atsauces

  1. a, b, c Eileen Donahoe and Megan McDuffee Metzger, “Artificial Intelligence and Human Rights,” Journal of Democracy 30, no. 2 (April 2019): pp. 115-126, https://doi.org/10.1353/jod.2019.0029
  2. a, b International Covenant on Economic, Social and Cultural Rights.
  3. a, b Rowena Rodrigues, “Legal and Human Rights Issues of AI: Gaps, Challenges and Vulnerabilities,” Journal of Responsible Technology 4 (December 2020), https://doi.org/10.1016/j.jrt.2020.100005
  4. ^ Alessandro Mantelero and Maria Samantha Esposito, “An Evidence-Based Methodology for Human Rights Impact Assessment (HRIA) in the Development of AI Data-Intensive Systems,” Computer Law & Security Review 41 (July 2021): pp. 754-772, https://www.sciencedirect.com/science/article/pii/S0267364921000340
  5. ^ Sakiko Fukuda-Parr and Elizabeth Gibbons, “Emerging Consensus on ‘Ethical AI’: Human Rights Critique of Stakeholder Guidelines,” Global Policy 12 (July 2021): pp. 32-44, https://doi.org/10.1111/1758-5899.12965
  6. ^ Martins Daughlis, “Foreign Policy of a Smart State: Technological Opportunities and Challenges in Latvia of Tomorrow,” in The Centenary of Latvia's Foreign Affairs: Scenarios for the Future, ed. Andris Spruds, Valters Scerbinkskis, and Karis Bukovskis (Riga, Latvia: Latvian Institute of International Affairs, 2018), pp. 1-207, 159.
  7. ^ Alex Moltzau, “National and International AI Strategies Around the World Towards 2020 Learning About Strategies and Building on the Work of the Future of Life Institute,” Alex Moltzau (Medium, December 21, 2019), https://alexmoltzau.medium.com/national-and-international-ai-strategies-around-the-world-towards-2020-692b22b3c303 in Summarized.
  8. ^ Vides aizsardzības un reģionālās attīstības ministrija. Informatīvais ziņojums "Par mākslīgā intelekta risinājumu attīstību". Pieejams: https://tap.mk.gov.lv/lv/mk/tap/?pid=40475479
  9. a, b European Commission, “Latvia AI Strategy Report,” AI Watch (European Commission Joint Research Center, February 2020), https://ai-watch.ec.europa.eu/countries/latvia-0/latvia-ai-strategy-report_en#:~:text=The%20Latvian%20strategy%20identifies%20priority,automated%20control)%2C%20and%20translation
  10. ^ EUR-Lex - 52021PC0206 - EN." EUR-Lex, European Union, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206
  11. ^ "Regulatory Framework for Artificial Intelligence," European Commission Digital Strategy, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
  12. ^ Chris Reed, “How Should We Regulate Artificial Intelligence?,” Philosophical Transactions Royal Society A, no. 376 (April 29, 2018): pp. 1-12, https://doi.org/10.1098/rsta.2017.0360, p. 1
  13. ^ I. S. Rubinstein, “Big Data: The End of Privacy or a New Beginning?,” International Data Privacy Law 3, no. 2 (January 25, 2013): pp. 74-87, https://doi.org/10.1093/idpl/ips036, p. 74.
  14. ^ Frank Pasquale, The Black Box Society: The Secret Algorithms Behind Money and Information (Cambridge, MA: Harvard University Press, 2016), p. 28.
  15. ^ M R Leiser, Francien Dechesne, Governing machine-learning models: challenging the personal data presumption”, International Data Privacy Law, 10, Number 3, (August 2020) pp 187–200, https://doi.org/10.1093/idpl/ipaa009
  16. ^ L. Edwards and M. Veale “Slave to the Algorithm? Why a 'Right to an Explanation' Is Probably Not the Remedy You Are Looking For” (2017) 16 Duke Law & Technology Review 18 ,  esp **pp 1-53  (shorter version in) Edwards and Veale “Enslaving the Algorithm: From a ‘Right to an Explanation’ to a ‘Right to Better Decisions’?” https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3052831
  17. ^ Sandra Wachter, Brent Mittelstadt, and Luciano Floridi, “Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation” (December 28, 2016). International Data Privacy Law, 2017, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2903469, pp 1-47, p. 1
  18. ^ High-Level Expert Group on Artificial Intelligence, “Ethics Guidelines for Trustworthy AI” (Brussels, Belgium: European Commission, 2019), pp. 1-39, p. 2.
  19. ^ High-Level Expert Group on Artificial Intelligence, “Policy and Investment Recommendations for Trustworthy AI ” (Brussels, Belgium: European Commission, 2019), pp. 1-50, p. 10-13 and 31-36.
  20. ^ Expert Group on Liability and New Technologies – New Technologies Formation., “Liability for Artificial Intelligence and other emerging digital technologies” (Luxembourg: Publications Office of the European Union, 2019), pp. 1-65, p. 5.