Poate avea inteligența artificială capacitate penală?

Recomandări

Georgian-Marcel HUSTI*

ABSTRACT

Artificial Intelligence is creating some criminal law problems which risk generating a liability gap. To answer this problem, some authors have proposed a criminal liability model in which the artificial intelligence itself would be held responsible. The scope of the present article is to analyse these theories and conclude whether or not such an endeavour would be feasible.

Keywords: criminal liability; legal capacity; criminal capacity; artificial intelligence in criminal law; artificial intelligence criminal liability.

I. Introducere

În fiecare an, guvernul SUA publică un document intitulat „Worldwide Threat Assessment”, prin intermediul căruia face publică analiza sa referitoare la cele mai mari amenințări la adresa securității națiunilor. În raportul din anul 2007 nu se făcea nicio mențiune cu privire la problemele de ordin informatic[1]. În 2011, problema siguranței informatice a apărut, fiind clasificată pe ultimul loc relativ la amenințarea pe care o reprezintă, fiind așadar considerată aproape complet insignifiantă[2]. Din anul 2013 încoace, aceste rapoarte plasează problemele de ordin informatic pe locul întâi[3]. În anul 2010 a avut loc un veritabil război informatic între SUA și Iran, în care SUA a plasat un vierme informatic (un tip de virus autoreplicant) într-o uzină de îmbogățire a uraniului din Iran. Odată plasat acolo, a înlocuit imaginile de pe camerele de înregistrare, a dezactivat sistemul principal de alarmă, a adunat informații cu privire la activitatea din respectiva uzină și a accelerat numărul de rotații al centrifugilor cu mult peste limita normală, timp de 15 minute, după care a redus brusc numărul la doar 2 rotații pe minut, timp de alte 15 minute. În tot acest timp, sistemele de supraveghere și control ale respectivei uzine raportau o funcționare normală, întrucât au fost de asemenea vizate de atacul asupra sistemului informatic. Acest gen de conduită s-a repetat la anumite intervale de timp, pentru a nu trezi suspiciuni. Se estimează că, în urma acestui atac, 1/5 din cantitatea de uraniu a fost compromisă, fiind afectat puternic programul nuclear al Iranului[4].

Acest atac a fost, fără îndoială, unul intenționat, plănuit cu atenție și coordonat. Dar o altă amenințare din partea inteligenței artificiale vine din însăși autonomia ei. Pe măsură ce avansează tehnologia, actorul uman devine din ce în ce mai redundant. În unele situații, actorul uman poate reprezenta chiar o vulnerabilitate pentru buna funcționare a sistemului. Aceste condiții fac ca în materie juridică să apară riscul unui vid de responsabilitate. Pentru a acoperi acest vid, se discută din ce în ce mai des despre o capacitate penală a inteligenței artificiale, care ar urma să răspundă în nume propriu. Prezenta lucrare își propune să prezinte aceste teorii, să clarifice noțiunea de capacitate juridică, să analizeze ce presupune un astfel de demers și să ofere o concluzie cu privire la problema pertinenței capacității juridice pentru a acoperi potențialul vid de responsabilitate.

II. De ce ar fi nevoie de o capacitate penală?

Unii autori afirmă că este nevoie de o capacitate penală pentru a ține ritmul cu noile tehnologii care apar[5]. Acești autori susțin că noțiunile clasice de responsabilitate, răspundere pentru produse și altele asemenea nu mai au capacitatea de a asigura înfăptuirea justiției și de a proteja interesele legitime relativ la această tehnologie. Totodată, acești autori declară că unghiul din care este văzută inteligența artificială începe să se schimbe, de la simple unelte în mâinile unui utilizator, la ceva care depășește acest concept. În viziunea acestor autori, schimbarea percepției are loc întrucât tehnologia exhibă o inteligență și o autonomie din ce în ce mai impresionantă, precum și abilități sociale, capacitate de a percepe și de a arăta empatie.

Alți autori susțin că, în realitate, ceea ce determină schimbarea nu este evoluția tehnologiei, ci factorii economici[6]. În viziunea lor, schimbările majore în drept apar atunci când tehnologia creează niște riscuri economice crescute. În continuare, acești autori explică felul în care a evoluat inteligența artificială de-a lungul decadelor și concluzionează că, în prezent, sume importante de bani sunt investite în acest sector. Conform articolului citat, unii specialiști în materie (Tractica) estimează că veniturile din inteligența artificială (I.A.) vor crește de la 1,4 miliarde de dolari, la nivelul anului 2016, la 59,8 miliarde, până în 2025. Într-adevăr, un raport privind statusul tehnologiei în 2021 relevă, în esență, faptul că domeniul inteligenței artificiale continuă să crească și să se dovedească unul avantajos[7]. Studiul a concluzionat, între altele, că cel puțin 56% dintre participanții la studiu au achiziționat cel puțin un astfel de sistem. Majoritatea acestor achiziții au vizat optimizarea serviciilor oferite, în timp ce îmbunătățirea produselor pe baza implementării unei I.A. a fost pe locul doi, iar automatizarea comunicării cu destinatarii produselor (servicii de comunicații) a fost pe locul 3. Conform aceluiași studiu, în 2019 și 2020, costurile adoptării unor noi tehnologii au scăzut concomitent cu creșterea veniturilor realizate din exploatarea acestei piețe. Este cert faptul că inteligența artificială are efecte practice importante și care au fost observate de investitori.

În materia dreptului penal, problemele principale privesc, în opinia noastră, latura subiectivă a infracțiunii și legătura de cauzalitate. I.A. diferă de alte tehnologii prin aceea că prezintă un oarecare grad de autonomie. Unele sisteme de acest tip denotă o asemenea autonomie, încât devine problematică capacitatea de prevedere a celui care o programează. În unele cazuri, inteligența artificială se ocupă chiar cu programarea inteligenței artificiale, astfel încât actorul uman este și mai îndepărtat. În atari condiții, demersul stabilirii poziției subiective, în special atunci când este vorba despre infracțiuni neintenționate, devine un demers extrem de dificil. Totodată, în materie de cauzalitate este problematic în ce măsură intervenția inteligenței artificiale nu rupe lanțul cauzal (risc deviat). Dacă inteligența artificială deviază de la programarea sa inițială, mai poate fi respectiva acțiune atribuită unei persoane? Dacă da, cui? Programatorului, producătorului sau utilizatorului?

Alte probleme în materie de răspundere juridică a inteligenței artificiale vizează nu atât cadrul teoretic, cât cel practic. Presupunând că o mașină autonomă accidentează mortal o persoană și materialul probator relevă o culpă în ceea ce privește programarea autoturismului, deși nu este exclus ca respectiva culpă să aparțină unei singure persoane, în practică, cel mai probabil, va fi vorba despre niște culpe concurente. În ceea ce privește dreptul penal, pentru existența infracțiunii, în principiu, nu contează gradul de culpabilitate, acest aspect urmând a fi avut în vedere la individualizare. Or, în materie de procedură penală, trimiterea în judecată a unui întreg departament de programatori și eventual și a persoanei juridice reprezintă un demers anevoios și disproporționat. În plus, un astfel de fenomen ar descuraja în mod semnificativ munca într-un astfel de domeniu, având în vedere lipsa generală de previzibilitate a modului în care ar opera răspunderea penală. O parte importantă a forței de muncă ar fi stimulată să aleagă mai degrabă un cadru mai ferit de riscuri juridice.

Finalmente, un alt argument privind importanța practică a discuției propuse în prezenta lucrare provine din aceea că diverse state au procedat deja fie la modificarea cadrului legislativ, fie au analizat serios această chestiune. Inclusiv în România există la acest moment un proiect de lege propus de către Ministerul Afacerilor Interne, care vizează utilizarea pe drumurile publice a mașinilor autonome[8]. În aceste condiții, este interesant de remarcat modificarea propusă la pct. 4 din proiectul de lege, respectiv „În timpul testării pe drumul public al unui autovehicul prevăzut cu sistem de conducere automatizată se consideră îndeplinită condiția ca un autovehicul să fie condus de o persoană dacă sunt îndeplinite prevederile art. 131 alin. (1) și (2). De altfel, am semnalat nevoia unei modificări a Codului rutier și în trecut, cu ocazia unor alte lucrări în materie, prin prisma legăturii de cauzalitate și a riscului permis[9].

Chiar și făcând abstracție de toate celelalte aspecte menționate, simpla intrare în vigoare a acestei norme – dacă va intra vreodată în vigoare – ar pune probleme deosebite în cazul în care s-ar produce un eveniment rutier cu semnificație penală.

Mai mult decât atât, deși aceste probleme sunt cele mai importante, asta nu înseamnă că alte elemente ale teoriei generale a infracțiunii nu sunt provocate de noile tehnologii.

Pentru toate aceste motive apreciem că discuția nu este una strict teoretică, chiar dacă este la un grad mai ridicat de abstractizare, ci are în final serioase ramificații practice.

III. Noțiuni

La ora actuală, nu există în literatura de specialitate o definiție general acceptată a inteligenței artificiale (I.A.)[10]. Motivele sunt numeroase. Pe de o parte, dacă a defini ce înseamnă artificial este relativ simplu, a defini conceptul de inteligență este un demers complicat. Pe de altă parte, definițiile rigide nu sunt adecvate unui domeniu care avansează constant. O definiție dată în 1956 nu s-ar mai fi aplicat și tehnologiei expert system care a apărut ulterior. Similar, chiar dacă s-ar reuși astăzi o definiție care să includă toată tehnologia inteligenței artificiale, ea ar risca să excludă tehnologii viitoare pe care, altminteri, le-am califica drept I.A. la nivel intuitiv. Un astfel de exemplu ar putea să îl constituie o tehnologie care să emuleze întru totul un creier: whole brain emulation[11]. Trebuie menționat că nici în științele juridice nu există o definiție asupra căreia autorii de specialitate să fie de acord.

În ceea ce ne privește, vom defini inteligența artificială drept entitatea care are abilitatea de a percepe informații din mediul înconjurător, de a le interpreta, de a învăța din respectivele informații și de a întreprinde acțiuni pentru a-și crește șansele de a-și îndeplini cu succes obiectivele.

IV. Viziunea conform căreia actuala concepție a dreptului penal nu este suficientă

Cu privire la o posibilă reglementare juridică, în doctrină s-a evidențiat că, cel mai probabil, răspunderea roboților va cunoaște 3 etape:

i. pe termen scurt, vor fi extinse sistemele actuale, cu intervenții din partea legiuitorului și pe cale jurisprudențială, pentru a putea judeca cauzele în care se pune problema răspunderii roboților[12],

ii. pe termen mediu, reglementarea unor modele de răspundere obiectivă (în sens de strict liability, adică, în esență, să fie răsturnată prezumția de vinovăție) și recunoașterea unei capacități juridice limitate[13] și

iii. o modificare fundamentală a dreptului, constând în recunoașterea și atribuirea roboților a unei personalități juridice, de entități electronice[14].

Analizând trendurile în materie, se poate afirma că la acest moment ne aflăm în etapa i, dar tindem spre etapa ii. Sistemele moderne de răspundere penală au din ce în ce mai mari dificultăți în a face față noilor provocări conceptuale puse de roboți și I.A. La ora actuală, roboții, din punct de vedere penal, sunt asimilați unor simple unelte[15]. Dar această comparație devine din ce în ce mai problematică atât în teorie, cât și în practică. La nivelul literaturii de specialitate în materie, există numeroase articole care subliniază faptul că sunt mai mult decât niște simple unelte[16].

În al doilea rând, dincolo de discuțiile teoretice în materie, încep să fie din ce în ce mai multe probleme de ordin practic. În anul 2018, o mașină autonomă a accidentat mortal un pieton[17]. Accidentul a fost investigat de comisia națională a siguranței rutiere. Printre altele, a concluzionat că un factor major în ceea ce privește accidentul a fost lipsa unui cadru legislativ adecvat[18]. Aceeași problemă a fost semnalată în urmă cu aproape 40 de ani, când un muncitor a fost ucis de un robot industrial în Japonia, concluzionându-se că nu există o reglementare suficientă în materie[19]. Într-o altă speță, o I.A. a cumpărat automat droguri de pe darknet. Probabil mai degrabă dintr-o eroare a organelor de cercetare penală, au fost vizați de anchetă atât proprietarul respectivului program, cât și programul în sine[20].

Organele de specialitate semnalează aproape constant lipsa unui cadru legislativ adecvat atunci când există accidente în care sunt implicați roboți. Spre exemplu, organismul de siguranță rutieră din SUA (National Transportation Safety Board, abreviat NTSB), cu ocazia investigării accidentului Uber din 2018, a concluzionat că statul Arizona nu a implementat niciun standard de siguranță pentru utilizarea autoturismelor autonome. NTSB a făcut următoarele recomandări legislative[21]:

1. Persoanele juridice care vor să testeze autoturismele autonome să fie obligate să întocmească un plan care să prevadă și măsurile minime de siguranță luate;

2. Crearea unui grup de experți care să avizeze aceste planuri;

3. Instituirea unei obligații, în sarcina companiilor, de a trimite un raport referitor la activitatea desfășurată;

4. Evaluarea acestui raport de către un organ al statului;

5. Transmiterea datelor legate de eventuale accidente către ceilalți producători de mașini autonome, spre evaluare;

Aceste recomandări nu au nicio semnificație juridică și nu au fost implementate până la acest moment.

Referitor la afirmația făcută anterior cu privire la faptul că tindem spre etapa ii, se remarcă faptul că la nivel legislativ începe să se acorde din ce în ce mai mare atenție răspunderii roboților/I.A. Spre exemplu, la nivelul anului 2017, Parlamentul European a adoptat o rezoluție prin intermediul căreia propunea Comisiei Europene să reglementeze statutul roboților, luând în calcul acordarea unui statut cu personalitate juridică, anume de „entități electronice”[22]. La nivelul Națiunilor Unite se organizează un summit în vederea discutării implicațiilor I.A.[23]. Comisia Europeană s-a ocupat recent cu identificarea problemelor legislative existente la nivel european în ceea ce privește I.A.[24]. Nu în ultimul rând, tot la nivelul anului 2017, Arabia Saudită a acordat cetățenie unui robot numit Sophia[25]. Într-un episod similar, districtul Shibuya din Tokyo a conferit „drept de rezidență” unei alte inteligențe artificiale[26].

V. Răspunderea penală a inteligenței artificiale de lege lata

G. Hallevy opinează că sistemele de tip I.A./roboți pot avea, de lege lata, capacitate penală. În raționamentul său, acesta analizează fiecare trăsătură a infracțiunii și concluzionează că este aplicabilă subiectelor în discuție. Autorul argumentează ideea conform căreia singurul temei al răspunderii penale este infracțiunea și, atâta vreme cât o entitate poate bifa fiecare element din structura infracțiunii, aceasta va răspunde penal indiferent de alte considerente de ordin filosofic sau etic, având în vedere autonomia dreptului față de aceste științe sociale[27].

Totodată, această viziune pornește de la premisa că pentru a comite o infracțiune, nu sunt necesare toate abilitățile cognitive umane, astfel încât este irelevant că inteligența artificială, în acest stadiu, nu emulează în totalitate un creier uman și nu a atins un grad mai mare de autonomie și independență[28]: „abilitățile umane, care sunt irelevante cu privire la comiterea unei anumite infracțiuni, în măsura în care nu sunt cerute expres de către lege, nu sunt luate în considerare în raționamentul juridic de stabilire a răspunderii penale[29].

Într-adevăr, faptul că autorul unei infracțiuni de furt are niște abilități culinare extraordinare este, de regulă, irelevant cu privire la stabilirea vinovăției penale a unei persoane. Această concluzie nu legitimează însă în niciun mod faptul că I.A./roboții pot fi asimilați oamenilor într-o asemenea măsură încât să se poată vorbi despre o eventuală capacitate penală a acestora, în opinia noastră. Pornind de la aceeași concluzie expusă anterior, s-ar putea la fel de ușor considera că animalele ori obiectele pot răspunde penal. Omorul, potrivit art. 188 C.pen., este definit drept „uciderea unei persoane”. Or, un urs care ucide un om în pădure comite o faptă similară cu cea a laturii obiective a infracțiunii de omor. Totodată, într-o anumită măsură, acesta are abilități cognitive similare cu cele ale omului. De ce în cazul lui nu este valabilă concluzia autorului referitoare la lipsa necesității tuturor abilităților umane? De altfel, uciderea unor oameni de către animale este un fenomen relativ uzual, însă cu siguranță nu se pune problema răspunderii penale a acestora în dreptul penal contemporan.

Autorul opiniei argumentează că I.A. este mai apropiată, ca natură, de oameni decât de animale, în special deoarece comunicarea cu roboții este mai facilă și folosește logica formală, în timp ce animalele sunt ființe bazate preponderent pe instinct și emoție[30].

Dincolo de această concluzie discutabilă[31], apreciem că problema reală în stabilirea capacității penale a I.A./roboților nu o reprezintă atât faptul că ar trebui ca aceștia să fie aidoma oamenilor din toate punctele de vedere, ci alegerea unor criterii minimale pentru conferirea acestei capacități, urmată de aplicarea lor la respectiva tehnologie. Profesorul Hallevy, deși tratează problema animalelor și a obiectelor în lucrarea sa, nu identifică și argumentează existența acestor criterii minime și, în consecință, nici nu demonstrează îndeplinirea lor de către tehnologie. Mai mult, folosind sistemul acestui autor, orice robot este capabil de a acționa din punct de vedere penal, fie că este vorba despre o cafetieră, o mașină autonomă, un bec inteligent ori o dronă armată.

Trecând peste aceste observații, autorul la care am făcut referire analizează în detaliu felul în care se aplică actuala teorie generală a infracțiunii la răspunderea penală a roboților. Referitor la latura obiectivă, acesta o separă complet de orice elemente legate de voință și concluzionează că orice robot poate realiza latura obiectivă a unei infracțiuni.

Concluzia este discutabilă, întrucât una dintre condițiile tradiționale ale acțiunii este ca aceasta să fie voluntară. În dreptul comparat, atât în legislațiile anglo-saxone, cât și în cele continentale se consideră că acțiunea trebuie să întrunească următoarele criterii: i. să fie externalizată (adică să nu rămână în forul intern al făptuitorului) ii. să fie voluntară[32], iar dreptul german adaugă condiția ca acțiunea iii. să fierelevantă social[33].

În dreptul nostru penal, însă, caracterul voluntar este irelevant pentru latura obiectivă: „Dată fiind însă reglementarea actuală din dreptul nostru, trebuie să admitem că relevanța penală a acțiunii nu este condiționată, din păcate, de caracterul voluntar al acesteia. Argumentul irefutabil în acest sens este dat de reglementarea în art. 24 C.pen. a constrângerii fizice, nu ca o cauză de înlăturare a acțiunii, ci ca una care înlătură imputabilitatea faptei. Cu alte cuvinte, potrivit concepției legiuitorului român, în situațiile de constrângere fizică de genul celei prezentate există o faptă prevăzută de legea penală (deci și o acțiune), numai că aceasta nu constituie infracțiune, lipsindu-i ultima dintre trăsăturile menționate de art. 15. C.Pen. – imputabilitatea[34].

Hallevy consideră, de asemenea, că elementul volitiv nu ține de acțiune și îl elimină cu totul atunci când analizează acest aspect prin raportare la roboți: „voința poate iniția acte, dar în sine nu are o reprezentare factual-externă, fiind corelată nu cu elementul factual, ci cu cel mental[35]. Această viziune nu este singulară, acest aspect fiind controversat[36]. Pe de altă parte, o separare perfectă a celor două elemente poate fi uneori destul de dificilă.

Mergând mai departe, la nivelul laturii subiective, autorul afirmă că voința în dreptul penal presupune două etape, respectiv obținerea de informații senzoriale din exterior și interpretarea[37]. În continuare, acesta explică în detaliu cum inteligența artificială și roboții operează cu aceleași procese, absorbind informații din mediul înconjurător și creând o interpretare a respectivelor informații.

Finalmente, acesta analizează diverse cauze justificative și de neimputabilitate și felul în care pot fi acestea adaptate pentru inteligența artificială. Spre exemplu, acesta aplică minoritatea unei tehnologii care se află într-o fază incipientă, argumentând că o inteligență artificială care nu a apucat să se dezvolte suficient pentru a avea capacitate penală nu va răspunde pe acest temei al „minorității”[38].

Problema principală a viziunii prezentate este că supraestimează considerabil capacitățile tehnologiei[39]. Spre exemplu, într-un anumit punct al lucrării, autorul vorbește despre posibile dileme etice ale unor roboți folosiți să asigure paza în penitenciarele din Coreea de Sud, punând niște probleme legate de utilizarea de către aceștia a unei forțe disproporționate în intervenția pentru a opri o persoană privată de libertate care încearcă să evadeze. În realitate, însă, ceea ce fac respectivii roboți este să patruleze holul penitenciarelor, fiind dotați cu o cameră, un microfon și mecanisme de recunoaștere a anumitor conduite periculoase (agresiuni, suicid, incendiere etc.). Gardienii penitenciarului se uită pe camera robotului și, în funcție de situație, fie vorbesc deținuților prin intermediul acestuia, fie intervin fizic pentru a detensiona situația[40]. Cu alte cuvinte, tehnologia pur și simplu nu este la acest moment suficient de dezvoltată pe cum este prezentată în respectiva lucrare. Roboții la care face referire Hallevy sunt mai apropiați de niște microfoane portabile decât de niște agenți de pază.

Într-o altă lucrare de specialitate se evidențiază faptul că fie roboții utilizați în comerț sunt atât de inofensivi încât cu greu se poate pune în mod pertinent problema unei răspunderi penale, cum este cazul aspiratorului-robot, fie aceștia sunt foarte periculoși (roboții ucigași din industria militară, care au făcut prima victimă în războiul din Libia din 2021, conform unui raport ONU[41], roboții industriali care ridică greutăți masive sau lucrează cu substanțe toxice ori periculoase, roboții care lucrează cu materiale la temperaturi extrem de ridicate – 2000 grade Celsius, roboții utilizați pentru manipularea deșeurilor radioactive etc.), motiv pentru care sunt ținuți în mod deliberat cât mai departe de orice personal neinstruit, iar cei care într-adevăr intră în contact cu tehnologia sunt profesioniști bine pregătiți, care acționează pe baza unor proceduri bine implementate[42]. Este adevărat că de la momentul la care a fost publicat articolul, în 2013, până la momentul la care sunt redactate aceste rânduri s-a scurs un interval de timp de 9 ani, iar tehnologia a făcut progrese semnificative, respectiv a penetrat mai adânc societatea modernă. Spre exemplu, la nivelul anului 2013, Google avea o flotă de mașini autonome, iar Nevada era singurul stat în curs de modificare a legislației în acest sens[43]. Dar chiar și luând în calcul toate aceste aspecte, tehnologia nu este nici pe aproape de viziunea profesorului Hallevy. La un moment dat în lucrarea sa, acesta vorbește despre un malpraxis medical al unui medic-robot care diagnostichează în mod greșit un pacient[44]. Într-adevăr, există inteligență artificială care poate diagnostica pacienții, iar literatura de specialitate în domeniu afirmă că aceasta este cel puțin la fel de eficientă precum medicii tradiționali[45]. Potrivit studiului citat, eficiența I.A. a fost de 87%, iar a agenților umani, de 86%. În pofida acestui lucru, realitatea diferă de cea expusă de Hallevy în lucrarea sa. În secțiunea dedicată sistemului sancționator, acesta oferă exemplul unui robot de la o clinică privată care este folosit pentru diagnosticarea pacienților și care este obligat să presteze muncă neremunerată în folosul comunității la un spital public, sub supravegherea unui medic[46]. Tehnologia folosită în sistemul medical este departe de aceste capabilități. Inclusiv în ceea ce privește eficiența ei în diagnosticarea pacienților, studiul citat anterior relevă faptul că, în ciuda rezultatelor bune dovedite de respectivul studiu, există în continuare prea puține cercetări care să confirme eficiența lor. Alți experți din industria I.A. susțin că roboții și inteligența artificială din sectorul medical vin să complinească munca medicilor, nu să o înlocuiască[47]. În consecință, o automatizare precum cea reprezentată de Hallevy în lucrările sale nu doar că nu există la momentul de față, dar cel mai probabil nici nu va exista în viitorul apropiat.

În opinia noastră, pentru ca viziunea acestui autor să poată fi relevantă din punct de vedere teoretic, este necesar să tranșeze niște limite clare referitor la asimilarea I.A. cu noțiunea de „persoană”, în sensul identificării unor criterii clare și pertinente. Pentru ca roboții în sine să fie trași la răspundere, trebuie determinat dacă și de la ce moment aceștia dobândesc această capacitate. Este evident că nu se poate pune semnul egalității între un robot-aspirator și cei folosiți în industria militară, iar referirea vagă la îndeplinirea condițiilor subiective prin raportare la faptul că conduita unei inteligențe artificiale este ghidată de obiective raționale nu este, în opinia noastră, suficientă. Trebuie spus că Hallevy nu afirmă în niciun moment că aspiratorul-robot ar avea capacitate penală, dar nici nu stabilește o delimitare clară a conceptelor cu care operează pentru a distinge între entitățile care ar avea capacitate penală și cele care nu ar avea.

De altfel, este improbabil ca răspunderea penală a I.A. să fie instituită pe cale de interpretare a noțiunii de persoană de către instanțele de judecată ori alte tertipuri similare, chiar și în legislațiile de tip common law, unde jurisprudența are un rol mult mai important în configurația dreptului. Soluția mai probabilă, în opinia noastră, este o intervenție pe cale legislativă în sensul reglementării capacității juridice penale a I.A./roboților. În sistemele de tip civil law, accentul este oricum pus pe legislația scrisă, astfel încât o schimbare conceptuală atât de dramatică la nivel de interpretare este, dacă nu imposibilă, cel puțin improbabilă. Susținătorii concepției potrivit căreia dreptul pozitiv este suficient pentru reglementarea răspunderii I.A. indică mai degrabă sistemele de tip common law[48], însă în doctrină s-a apreciat că și în aceste legislații o astfel de abordare ar fi riscantă și ineficientă[49].

Revenind la sistemul propus de Hallevy, acesta este inaplicabil pentru că tehnologia pur și simplu nu este atât de avansată precum este prezentată în acea lucrare, motiv pentru care se impune a respinge ferm premisa de la care pornește autorul. O schimbare conceptuală atât de fundamentală a dreptului este incompatibilă, în opinia noastră, cu lipsa unei intervenții radicale asupra legislației penale. Pentru a păstra mecanismele juridice penale de lege lata, este necesar ca I.A. să rămână la conceptul de instrumentum, pentru că, deși rămân într-adevăr chestiuni distincte, disonanța între filosofia dreptului și aplicarea sa ar fi prea mare pentru a genera un cadru coerent și eficient. Cu toate acestea, lucrarea rămâne un punct de pornire interesant referitor la cum s-ar putea aplica dreptul penal pentru a trage la răspundere I.A.

Dar dacă într-adevăr s-ar putea conferi capacitate penală inteligenței artificiale, cum ar arăta aceasta? Apreciem că pentru a analiza dacă este oportună acordarea capacității juridice unor entități de tip I.A., un prim punct de pornire ar fi definirea noțiunii de capacitate juridică drept concept.

VI. Concepția modernă a capacității juridice. Repere teoretice

Atunci când se vorbește despre o noțiune care nu are o definiție legală, sensul este cel comun. Doctrina civilă definește persoana ca fiind un individ al speciei umane, un om considerat în totalitatea însușirilor sale fizice și psihice, menționând că în limbaj juridic, persoana desemnează omul în capacitatea sa juridică[50]. În acest sens, Matei Cantacuzino considera că „înțelesul juridic al cuvântului persoană corespunde în domeniul dreptului privat exact cu noțiunea de subiect de raporturi juridice, de ființă susceptibilă de a fi subiect de drepturi și obligațiuni[51]. Doctrina civilă franceză definește capacitatea juridică drept capacitatea de a deveni subiect de drept și de a valorifica aceste drepturi[52].

Se consideră că noțiunea de persoană derivă din lat. „persona”, care înseamnă „mască”. Din perspectivă juridică, în Roma antică, un om putea avea mai multe „măști” juridice: senator, pater familias, cetățean roman etc.[53]. De aici au pornit o serie de discuții, inițial purtate în context religios, iar apoi purtate în context filosofic[54]. Discuțiile continuă până astăzi, neexistând încă niște criterii speciale referitoare la ce înseamnă o persoană. Care sunt, concret, trăsăturile pe care trebuie să le aibă o entitate pentru a fi considerată o persoană? În special prin raportare la inteligența artificială, există nenumărate opinii, după cum vom prezenta infra.

Personalitatea, în sens juridic, desemnează posibilitatea unei persoane de a avea drepturi și obligații[55]. Ieșind din sfera dreptului penal, se remarcă faptul că de esența unei persoane, din punct de vedere juridic, este că aceasta poate dobândi drepturi și i se pot impune obligații[56].

La ora actuală, dreptul este văzut ca fiind divizat în mai multe ramuri specifice. În consecință, fiecărei ramuri de drept din cadrul sistemului îi corespunde o „ramură” a capacității juridice[57]. Luând în considerare obiectul acestei lucrări, este avută în vedere ramura penală a capacității juridice.

O autoare a încercat să identifice un fundament teoretic[58], făcând o sinteză a teoriei capacității juridice prin analiza diverselor subiecte de drept în diferite ramuri juridice, precum și prin raportare la entitățile cărora nu le este recunoscută o astfel de personalitate juridică. Astfel, ea identifică trei mari categorii de teorii, pe care le vom analiza în cele ce urmează.

1. Personalitatea juridică drept concept formal

Prima teorie este denumită de autoare „Cheshire cat” (pisica de Cheshire), după un personaj din povestea „Alice în țara minunilor”. Denumirea provine din aceea că, aidoma personajului, este acolo când e convenabil și dispare când nu. Cu alte cuvinte, conform acestui model teoretic, capacitatea juridică este o pură ficțiune, formală, fără nicio dimensiune etică, morală sau filosofică. Potrivit acestui model, absolut oricine poate avea capacitate juridică penală, inclusiv inteligența artificială. Capacitatea juridică este considerată ecuație matematică construită pentru a simplifica calculele juridice[59]. În mod interesant, una dintre implicațiile acestei teorii este că nu se poate considera că personalitatea juridică a societăților de persoane este o ficțiune, iar cea a persoanelor fizice este veridică, întrucât întotdeauna este vorba despre un concept abstract și fictiv, golit de conținut moral, istoric, biologic, religios etc. Potrivit adepților acestei teorii, ar fi chiar greșit să identificăm astfel de criterii, întrucât astfel ar deveni inutilă noțiunea de personalitate juridică în calitate de concept[60]. În acest sens, un autor afirmă că o persoană există în plan juridic numai în măsura în care are drepturi și obligații, astfel încât drepturile și obligațiile sunt ceea ce formează personalitatea juridică, neexistând un strat mai înalt al unei persoane care posedă aceste drepturi și obligații[61]. Această teorie a fost îmbrățișată de practica judiciară din provincia Quebec, sursă de inspirație a legiuitorului român, conform expunerii de motive a Codului civil. Într-o cauză în care reclamantul, care concepuse un copil împreună cu pârâta, a solicitat instanței să îi interzică celei din urmă să avorteze, punând în discuție statutul de persoană al fetusului[62], instanța de recurs a statuat că argumentele metafizice, deși pot fi relevante, nu pot fi considerate elementul decisiv al cauzei. Mai mult, instanța a stabilit că nici argumentele de natură științifică ori biologică nu sunt determinante, întrucât stabilirea noțiunii de „persoană” în drept este diferită de cea a noțiunii de persoană din științele naturii. Atribuirea personalității juridice este în mod fundamental o problemă normativă, reprezentând recunoașterea de drepturi și obligații, chestiune ce excedează problemelor de natură științifică și filosofică. Pentru aceste motive, instanța a admis recursul pârâtei și a respins cererea reclamantului. Totodată, în sprijinul acestei teorii pot veni argumente de ordin istoric și social, existând numeroase situații în care unele ființe umane erau tratate drept subiecte de drept, iar altele drept simple bunuri.

Teoria nu este nicidecum una nouă. În doctrina civilă franceză veche s-a discutat despre faptul că încă din cele mai vechi timpuri s-a conferit capacitate juridică unor entități non-umane. Pe de altă parte, persoanele fizice sunt singurele înzestrate cu voință, singurele care pot fi veritabile subiecte de drept. Când dreptul conferă personalitate juridică unui subiect, nu recunoaște o capacitate preexistentă de a exercita drepturi și obligații ci, din contră, acesta o instaurează, o creează[63].

În doctrina noastră s-a purtat de asemenea discuția referitoare la această teorie, prin raportare la persoana juridică. Profesorul Ion Tanoviceanu, analizând posibilitatea tragerii la răspundere a persoanei juridice, concluzionează că nu se poate deduce o voință proprie a unei colectivități separată de cea a persoanelor care o compun. Întrucât această voință proprie este fundamentală pentru dreptul penal, nu se poate angrena răspunderea penală a persoanei juridice[64]. În materia persoanei juridice, în antiteză cu această teorie stă teoria realității, susținută inițial de autorii germani și, în dreptul nostru, de către V. Dongoroz[65]. Conform acesteia, între manifestările unei colectivități și membrii acesteia există o legătură cauzală, motivată de faptul că respectiva colectivitate își alege conducătorii, le dă instrucțiuni și ratifică măsurile luate de respectivii lideri. Totodată, acesta este și fundamentul pentru pedepsirea membrilor colectivității: alegerea greșită a conducătorilor și omisiunea de a îi supraveghea[66]. Pornind de la art. 188 C.civ., în legislația noastră se consideră că actuala reglementare românească operează cu teoria realității[67].

Revenind la teoria ficțiunii, aplicând această teorie la inteligența artificială, implicațiile sunt că s-ar putea recunoaște personalitatea juridică a roboților pornind de la utilitatea folosirii unui astfel de concept într-un sistem de drept. Esența unei astfel de abordări este următoarea: este util, din punct de vedere social, economic și moral, să conferim roboților și I.A. statutul de „persoane electronice”?

O parte a autorilor consideră că inteligența artificială și roboții sunt niște simple unelte, nefiind de conceput o personalitate juridică specială, la fel cum nu este necesar să se confere personalitate juridică unui ciocan[68]. Alți autori, însă, apreciază fie că roboții trebuie încă de la acest moment să se bucure de personalitate juridică[69], fie că va exista un moment în care va fi necesar să se întâmple acest lucru[70].

Acest curent, uneori, compară roboții cu societățile comerciale. Spre exemplu, indică faptul că societățile comerciale pot comite infracțiuni, deși nu au nici corp material, nici „suflet” propriu[71]. Cu toate acestea, ele pot răspunde penal în majoritatea legislațiilor moderne[72]. Având în vedere acest fapt, dacă societățile comerciale pot răspunde penal, iar roboții deja au comis infracțiuni, de ce nu le-am conferi capacitate penală? – se întreabă un autor[73].

Apreciem că există mai multe observații care se pot face și cu privire la această argumentație. În esență, criteriile de comparație cu persoana juridică sunt prea vagi. Anterior am arătat faptul că anumiți autori fac referire la persoana juridică tocmai pentru a argumenta de ce roboții nu ar trebui să aibă personalitate juridică. Din acest motiv, considerăm că o comparație cu societățile de persoane este de evitat. Este adevărat că autorul, atunci când face comparație cu persoanele juridice, se referă la rațiunea de a le conferi personalitate juridică, însă apreciem în continuare că trebuie evitată o astfel de comparație. După cum am argumentat supra, mai există și alte rațiuni pentru actuala reglementare a persoanei juridice, de ordin economic.

Unii autori afirmă că există posibilitatea teoretică și practică de a le acorda un astfel de statut, chiar și la nivelul anului 2017, pornind de la premisa că personalitatea juridică este o ficțiune[74]. Cu toate acestea, ei atrag atenția cu privire la faptul că oamenii vor avea tendința de a profita, folosindu-se de ei ca protecție împotriva unei eventuale răspunderi penale sau civile[75]. În mod evident, de aici se poate face o paralelă cu persoanele care profită de răspunderea limitată a persoanei juridice. Pentru astfel de situații există, în majoritatea legislațiilor, inclusiv cea românească, conceptul de piercing the corporate veil[76]. Făcând această paralelă, autorii atrag atenția că, deși se pot într-adevăr institui diverse astfel de mecanisme și cu privire la roboți și I.A., există totuși niște limite până la care acest mecanism se poate dovedi util[77], invocând mai multe spețe în care creditorii nu au putut urmări diverse entități economice internaționale din cauza unor probleme privind personalitatea juridică[78]. Astfel, un grup de indieni din tribul Cayuga au concesionat o parte din teritoriile lor către statul american, începând cu anul 1789. Ulterior acestei concesiuni, tribul a migrat în Canada, iar în 1795, un alt grup de indieni s-a mutat în locul lor. În anul 1885, grupul canadian a solicitat sumele de bani și dobânda legală aferentă pe care statul a plătit-o de-a lungul timpului grupului american (care imigrase din Canada ulterior concesionării). Situația era problematică întrucât, deși statul american recunoștea capacitatea juridică a respectivelor entități, Canada nu opera cu noțiuni similare, motiv pentru care instanța a recalificat acțiunea ca fiind făcută în numele persoanelor fizice[79]. O altă cauză faimoasă invocată este JH Rayner (Mincing Lane) Ltd. v. Department of Trade and Industry, în care mai multe persoane au încheiat contracte cu o entitate internațională denumită International Tin Council (ITC). Această entitate cuprindea inclusiv unele state. Marea Britanie a recunoscut capacitatea juridică a acestei entități, care a început să încheie contracte în mod direct cu persoane din sectorul privat. Întrucât piața metalelor s-a prăbușit, în cele din urmă ITC nu a mai putut să execute obligațiile care s-au născut din respectivele contracte. Ulterior, s-a dovedit că ITC nu deținea în nume propriu niciun bun, motiv pentru care unii creditori au încercat să exercite acțiunea civilă împotriva UK. Acțiunea a fost respinsă de către instanțele din Marea Britanie cu argumentul că ITC e o entitate diferită de membrii care o compun.

Un alt argument adus este că societățile de persoane au întotdeauna, în final, niște oameni care le ghidează. În cazul roboților foarte avansați există riscul să nu se poată identifica întotdeauna un om care să le dea instrucțiuni sau să îi supravegheze[80].

La aceste critici s-a răspuns arătându-se că problema reală în acest tip de situații nu privește personalitatea juridică a acelor entități, ci faptul că acestea erau insolvente[81]. Revenind la speța ITC, s-a argumentat că problema reală nu viza capacitatea juridică a respectivei organizații, ci faptul că aceasta s-a prăbușit fără a deține bunuri – o problemă care nu este nicidecum inerentă persoanelor juridice. Apoi s-a mai argumentat că mecanismul de piercing the corporate veil ar trebui să fie suficient pentru a putea preveni frauda[82]. S-a arătat, în acest sens, că, deși roboții foarte avansați nu au întotdeauna un operator uman care să le dea instrucțiuni, conceptul de fraudă presupune prin sine însuși un om care dă anumite instrucțiuni ilegale robotului[83].

Având în vedere scopul prezentei lucrări, de a analiza răspunderea penală, vom remarca faptul că discuția privind piercing the corporate veil este una care nu are o semnificație prea mare, având în vedere faptul că oricum în România, din punct de vedere al răspunderii penale, regula este că vor răspunde atât persoana juridică, cât și persoana fizică. Roboții ar putea răspunde alături de oameni ori de câte ori este cazul. Pe de altă parte, considerăm că, cel puțin din punct de vedere al dreptului penal, tocmai faptul că există riscul să nu se poată identifica întotdeauna un om care să dea instrucțiuni robotului/I.A. ar putea justifica crearea unei personalități juridice. Această soluție ar putea, cel puțin în teorie, să umple acest „vid al responsabilității”, cum a fost supranumit în doctrină[84]. În orice caz, considerăm că acesta este punctul de la care trebuie pornită discuția privind răspunderea roboților/I.A.: utilitatea, iar nu capacitatea lor de a poseda o conștiință. Dincolo de acest punct, se pot aduce argumente pro și contra, inclusiv argumente de ordin economic și social. Spre exemplu, s-a semnalat că este posibilă pierderea locurilor de muncă în favoarea roboților, în primă fază în special de către categoriile defavorizate care efectuează munci pentru care nu este necesară o calificare foarte avansată, chestiune ce îi marginalizează și mai mult[85]. Nu vom insista aici asupra acestor aspecte. Totuși, dorim să menționăm faptul că o astfel de soluție ar putea fi un mod viabil de a face față provocărilor ridicate de răspunderea roboților/I.A. Încă se pune mare accent pe criteriile pe care ar trebui să le îndeplinească I.A. pentru a se califica pentru personalitate juridică[86]. Cu riscul de a avea o viziune prea „utilitaristă” asupra problemei, din nou credem că este de prisos identificarea unor asemenea criterii. În principiu, atunci când (și dacă) sistemul legislativ va considera oportun, va reglementa această chestiune. Cel mai probabil se va ajunge la o astfel de soluție atunci când/dacă se va constata că există probleme privind răspunderea juridică. La ora actuală există suficiente tehnologii care să pună astfel de probleme, după cum vom argumenta infra, dar se pare că acestea nu au reușit să genereze o polemică suficient de profundă cât să se concretizeze o capacitate juridică separată. Cel puțin la ora actuală, instituirea unei capacități juridice separate nu este unica modalitate de umplere a acestui vid legislativ. În plus, stabilirea unor criterii minimale pentru acordarea unei capacități juridice excedează sferei dreptului, având de-a face mai mult cu științele politice sau morala[87].

În prezent niciun stat nu recunoaște o capacitate juridică separată roboților. Cetățenia acordată robotului Sophia, spre exemplu, este una pur simbolică[88]. Totuși, s-a remarcat că ar putea fi suficient ca un singur stat să recunoască o astfel de capacitate pentru a determina celelalte state să le recunoască calitatea de entități cu personalitate juridică roboților, cel puțin la nivel european[89]. Argumentarea pornește de la principiul recunoașterii reciproce a persoanelor juridice, instituit la nivelul UE și de TFUE. Astfel, tratatul prevede la art. 54:

Societățile constituite în conformitate cu legislația unui stat membru și având sediul social, administrația centrală sau locul principal de desfășurare a activității în cadrul Uniunii sunt asimilate, în aplicarea prezentului capitol, persoanelor fizice resortisante ale statelor membre.

Prin societăți se înțeleg societățile constituite în conformitate cu dispozițiile legislației civile sau comerciale, inclusiv societățile cooperative și alte persoane juridice de drept public sau privat, cu excepția celor fără scop lucrativ”.

Astfel, s-a argumentat că definiția societăților este atât de largă, încât nu este exclus ca o I.A. generatoare de profit să fie asimilată unei persoane juridice[90]. În ceea ce ne privește, avem dubii cu privire la această din ultimă afirmație, fiind greu de imaginat la acest moment că I.A. poate într-adevăr intra în definiția de la art. 54 TFUE. Trecând peste aceste aspecte însă, nu se poate contesta faptul că, în măsura în care un stat ar recunoaște capacitatea juridică a unei entități de tip I.A., iar respectiva entitate ar fi un actor economic important, statele ar trebui să găsească un cadru legal pentru a recunoaște contractele încheiate cu acest actor economic. Astfel, nu este exclus ca statele să fie obligate să recunoască cel puțin personalitatea juridică a entităților de tip I.A. din respectivul stat, cu care resortisanții statului interacționează.

De altfel, după cum am văzut deja, țări precum Arabia Saudită sau Japonia au început deja să confere drepturi roboților. Concret, în ce anume constă această suită de drepturi acordate, nimeni nu știe, dar cert este că ele au fost acordate.

2. Orice ființă rezonabilă[91]

Această concepție a personalității juridice este cea mai apropiată de noțiunea folosită în limbajul comun și este cea mai intuitivă, dacă excludem personalitatea juridică a societăților de persoane. Această definiție este strâns legată de definiția omului, în sens biologic, metafizic, teologic, filosofic etc. Teoria este în directă contradicție cu cea prezentată anterior, întrucât se consideră eronată apelarea la niște definiții extra-juridice pentru conceptul de personalitate juridică[92]. Acestor critici li s-a răspuns că simpla prezență a unor drepturi și obligații nu este suficientă pentru a discuta despre capacitate juridică, ci este necesar să existe și o voință care să le utilizeze și să aleagă ce drepturi dorește să exercite[93]. Desigur, problemele care izvorăsc de la utilizarea acestei teorii sunt legate de faptul că, inclusiv în societatea modernă, există neînțelegeri cu privire la ce anume este și ce nu este o ființă umană. O altă problemă privind această teorie, cu impact în ceea ce privește capacitatea juridică a inteligenței artificiale, este stabilirea trăsăturilor ființei umane care prezintă relevanță pentru personalitatea juridică. Pornind de la această teorie a capacității juridice, este exclusă de plano orice discuție despre o eventuală capacitate a animalelor, indiferent de gradul și natura inteligenței pe care o posedă, pentru simplul fapt că nu aparțin rasei umane – cu atât mai mult cu cât persoanele foarte tinere și cele bolnave grav mental prezintă o inteligență comparabilă cu unele specii de animale. Numai ființele umane vii pot avea capacitate juridică.

Această teorie se bucură de mulți susținători, probabil din cauză că este cea mai intuitivă dintre toate, astfel încât există numeroși autori care consideră că se va impune conferirea de personalitate juridică roboților în momentul în care vor începe să se comporte asemenea oamenilor. Practic, criteriul în funcție de care se determină dacă aceste entități sunt sau nu persoane este gradul de apropiere față de oameni. Acest curent este, poate, cel mai vechi, existând articole și discuții în acest sens cel puțin de la începutul anilor ‘90[94]. În articolul menționat, spre exemplu, este comparată inteligența artificială cu un administrator financiar care cumpără și vinde bunuri în numele cuiva[95]. Ulterior, se discută despre posibilitatea inteligenței artificiale de a avea drepturi constituționale și altele asemenea. Finalmente, sunt discutate posibile argumente contrare, precum absența unui „suflet” al I.A., absența unei conștiințe sau a unei voințe[96].

Majoritatea autorilor care folosesc aceste criterii apreciază că I.A. nu prezintă suficiente calități umane pentru a i se conferi personalitate juridică proprie[97]. Un autor, pornind de la o „decizie de referință[98] a unei curți din SUA, care stabilește că cimpanzeii nu au personalitate juridică[99], încearcă să găsească anumite criterii pe care să le aplice roboților. În esență, pornind de la decizia menționată, autorul argumentează că pentru a avea capacitate juridică, o entitate trebuie să fie capabilă să posede și să exercite drepturi și obligații[100]. Plecând de aici, autorul își canalizează atenția asupra a 4 entități: cele comerciale, idolii religioși, cimpanzeii și roboții[101]. Idolii religioși sunt definiți drept obiecte de cult care sunt considerate de către practicanții respectivei religii a fi de natură divină (și slujite ca atare). Pornind de la aceste cutume religioase, state precum India au recunoscut capacitatea juridică a acestor idoli[102].

În sumar, se concluzionează că societățile comerciale și idolii religioși sunt capabili de a poseda și exercita drepturi, respectiv de a îndeplini obligații, întrucât, în esență, sunt administrate de niște persoane umane, formând astfel o colectivitate[103]. De cealaltă parte, cimpanzeii[104] și roboții[105], neavând niște agenți umani care să îi coordoneze, nu întrunesc condițiile necesare pentru a fi înzestrați cu personalitate juridică.

Există mai multe contraargumente care pot fi aduse în discuție. La nivelul general al acestor idei, se pune întrebarea: în primul rând, care dintre trăsăturile umane trebuie să fie îndeplinite pentru ca o entitate să aibă personalitate? Toate? Câteva? Nu toate conduitele umane pot să fie considerate inteligente. Din contră, există numeroase exemple de comportamente considerate a fi lipsite de inteligență. În plus, unele trăsături umane nu sunt dezirabile, tocmai acesta fiind avantajul conferit de inteligența artificială. Spre exemplu, atunci când au de-a face cu o muncă repetitivă, oamenii obosesc, se plictisesc, își pierd concentrarea. Pe de altă parte, un robot este capabil să facă aceeași muncă zi de zi, indiferent cât de repetitivă ar fi, fără a-și diminua atenția sau a se plictisi. În schimb, dacă numai unele dintre aceste trăsături ar trebui să fie îndeplinite, care ar fi acestea? Deși în foarte multe domenii lasă mult de dorit, deja există totuși numeroase alte activități unde I.A. a depășit cu mult capacitatea umană, mai ales atunci când este vorba despre capacitatea de calcul.

În plus, ieșind puțin din sfera dreptului penal și pornind de la logica articolului prezentat anterior, anumite categorii de persoane, care de facto au capacitate juridică, nu ar trebui să o aibă, nefiind capabile de a exercita drepturi și de a li se impune obligații. Este vorba aici despre persoanele concepute, dar nenăscute. Potrivit art. 36 Cod civil, drepturile copilului sunt recunoscute de la concepțiune, însă numai dacă el se naște viu. Este adevărat că acest articol se referă strict la capacitatea civilă, nu și la cea penală, dar autorul articolului discută expres despre capacitatea civilă, ajungând la aceeași concluzie. La această chestiune se poate răspunde invocând faptul că este vorba despre o capacitate de folosință anticipată, care se consolidează la momentul nașterii. Nu considerăm că această observație este una pertinentă, având în vedere că nici despre un nou-născut nu se poate spune că are abilitățile cognitive necesare pentru a poseda și exercita drepturi, respectiv a îndeplini anumite obligații. Mai mult, în aceeași situație se pot afla și diverși indivizi cu o capacitate mentală afectată de o boală psihică. Există în acest sens instituția punerii sub interdicție[106]. Această instituție vizează tocmai situația în care o persoană își pierde, psihic, capacitatea de a exercita singură drepturile. Cu toate acestea, o astfel de persoană nu își pierde personalitatea juridică, cel puțin nu în dreptul român, unde imputabilitatea este o chestiune distinctă. La fel se poate discuta și despre o persoană care intră în comă.

Trecând peste acest fapt, avem dubii cu privire la asemănarea corporațiilor cu idolii religioși, pe de o parte, respectiv asemănarea animalelor cu inteligența artificială, pe de altă parte. Practic, atunci când se vorbește despre personalitatea juridică a idolilor religioși, există doar cazul Indiei, care recunoaște personalitatea juridică a anumitor temple. Celelalte state recunosc doar personalitatea juridică a acestora, fără a conferi propriu-zis personalitate juridică templelor și clădirilor religioase de pe teritoriul lor[107]. În acest stat, rațiunea de a conferi personalitate juridică are de-a face cu un set de cutume religioase[108]. Din acest punct de vedere, rațiunile pentru care cele două au personalitate juridică sunt radical diferite. Asemănarea, potrivit unor autori, constă în aceea că ambele sunt administrate de oameni care exercită drepturile și execută obligațiile în numele societății comerciale sau templului[109]. Problema cu acest criteriu este că orice persoană, animal sau obiect, poate să aibă un astfel de ocrotitor legal. Spre exemplu, cimpanzeii, despre care autorul afirmă că nu pot avea capacitate juridică[110], ar putea avea un ocrotitor legal care să exercite în numele lor drepturi și să execute obligații, la nivel conceptual. Imaginăm aici exemplul unui cimpanzeu care execută spectacole la un circ. S-ar putea considera că circul (persoană juridică) este reprezentantul legal, dacă legiuitorul ar dori să abordeze o astfel de reglementare.

Prin prisma tuturor acestor chestiuni, apreciem problematică și eronată raportarea inteligenței artificiale la noțiunea de ființe umane. De altfel, pornind de la aceste criterii, autorii au dreptate când afirmă că roboții și I.A. nu trebuie să aibă personalitate juridică. Mai mult, probabil nu vor ajunge niciodată într-un asemenea stadiu al dezvoltării. În concret, apreciem că realitatea socială și istorică demonstrează faptul că legiuitorul nu s-a cramponat de aceste probleme atunci când a ales să confere sau nu capacitate juridică unor entități. În concepția pragmatică pare să câștige mai degrabă prima teorie, prezentată anterior, care relevă că până la urmă, personalitatea juridică reprezintă un concept juridic. De-a lungul istoriei, au existat cazuri în care oamenii nu s-au bucurat de personalitate juridică. Amintim în acest sens sclavia[111]. Mai mult, realitatea demonstrează faptul că Arabia Saudită a conferit cetățenie unui robot, în condițiile în care statul este criticat pentru faptul că nu recunoaște o serie întreagă de drepturi persoanelor de sex feminin[112]. Până la urmă, ceea ce se dorește prin conferirea unei personalități juridice este găsirea unui mecanism legal prin care să se reglementeze răspunderea juridică și găsirea unui cadru legal adecvat. Societățile comerciale au personalitate juridică nu pentru că „împrumută anumite caractere de la oameni[113],ci pentru că este util pentru societate, în opinia noastră. Răspunderea limitată, spre exemplu, este o „unealtă” puternică pentru oricine dorește să lanseze o afacere. Atât timp cât nu se face vinovată de fraudă, bunurile sale personale sunt la adăpost de o eventuală urmărire silită a creditorilor persoanei juridice. Acest mecanism este util societății întrucât încurajează oamenii să întreprindă diverse activități antreprenoriale, ceea ce are repercusiuni pozitive la nivel economic. Așadar, considerăm că personalitatea juridică este o construcție artificială, o ficțiune[114]. Pentru toate aceste motive, considerăm că raportarea roboților/I.A. la oameni este inadecvată[115].

Merită menționat însă că acest curent umanist este unul destul de răspândit, găsindu-și susținători în diverse domenii. În anul 2017, Parlamentul European a adoptat o rezoluție prin intermediul căreia propunea Comisiei Europene să analizeze problema personalității juridice a roboților. Ca răspuns la această problemă, în 2018, un grup de peste 150 de persoane, de la practicieni și teoreticieni ai dreptului până la experți în robotică și inteligență artificială și psihologi, au semnat o scrisoare deschisă prin care au semnalat faptul că nu este adecvat să se confere anumite drepturi roboților[116]. Această scrisoare deschisă are 3 puncte potrivit cărora ar fi o greșeală acordarea unei personalități juridice roboților. Unul dintre ele este următorul: „statutul legal al roboților nu poate fi derivat din modelul persoanelor naturale, din moment ce robotul ar urma să se bucure de drepturile omului, precum dreptul la demnitate, integritate, remunerație, cetățenie […]”[117].

Dincolo de critica deja adusă cu privire la asemănarea cu un om, mai remarcăm o problemă: semnatarii acestei scrisori deschise văd personalitatea juridică ca pe ceva absolut. După cum au observat și alți autori, ea este mai degrabă o scală decât un concept absolut[118]. Conferirea unei personalități juridice nu înseamnă că o entitate dobândește toate drepturile și obligațiile posibile. La fel ca în cazul societăților de persoane, în funcție de voința legiuitorului, se pot acorda unele drepturi și unele obligații.

Tuturor acestor observații am mai dori să adăugam faptul că, pornind de la asemănarea roboților cu oamenii, există riscul de a nu ajunge niciodată într-un asemenea stadiu. Până la urmă, ce înseamnă mai exact conceptul de conștiință? Care ar fi testul care ar determina dacă un robot/I.A. are sau nu conștiință? Faimosul test Turing, spre exemplu, este depășit de I.A. cu succes, cel puțin pentru perioade de timp limitate[119]. Mereu apar noi teste și noi standarde în această privință[120]. Dincolo de riscul imaginat de divertismentul de tip S.F. ca roboții să piardă controlul, există riscul ca aceștia să fie semnificativ sub așteptări, în condițiile în care deja s-au infiltrat în foarte multe domenii cruciale ale vieții.

Alți autori au răspuns acestor critici indicând faptul că răspunderea penală a persoanelor juridice funcționează în mod eficient[121]. Într-adevăr, în dreptul penal român, în principiu, vor răspunde atât persoana juridică, cât și persoana fizică. Personalitatea juridică a societăților de persoane nu este un paravan care să creeze impunitate asociaților. Din contră, se dorește a fi o extindere a răspunderii penale pentru a preveni eventuale abuzuri în care persoana juridică ar fi cea care s-ar bucura de impunitate.

3. Subiectul responsabil[122]

Conform acestei teorii, nu toate ființele umane se bucură de capacitate juridică, ci doar cele capabile să acționeze într-un mod rațional. Spre deosebire de teoria prezentată anterior, noțiunea nu mai necesită apel la științe extrajuridice. Subiectul de referință este persoana capabilă să acționeze juridic, să uzeze de drepturile recunoscute de lege. Potrivit acestei teorii, un subiect care nu are libertate de voință nu poate dispune de drepturi și nu poate fi considerat, în mod rezonabil, ca bucurându-se de capacitate juridică.

Într-o cauză din Anglia, de la England and Wales Court of Appeal[123], o instanță a fost chemată să decidă dacă doi gemeni siamezi reprezintă o persoană sau două. Sentința a fost în sensul că există două persoane, astfel încât implicit instanța s-a ghidat după teoria prezentată la punctul 2. Comentatorii acestei decizii au opinat că ar fi fost mult mai ușor dacă instanța ar fi utilizat această a treia teorie, statuând că de fapt nu exista nicio persoană, având în vedere capacitatea lor cognitivă aproape inexistentă[124].

Această din urmă teorie pare a fi cea îmbrățișată de dreptul penal român, în măsura în care înțelegem să ne ghidăm și în funcție de trăsătura de imputabilitate a infracțiunii și, prin abstracție, să o includem în ideea de capacitate. Minorii sub 14 ani și persoanele lipsite de discernământ nu vor răspunde penal, lipsind imputabilitatea ca trăsătură a infracțiunii.

Merită menționat aici că, potrivit articolului original, cele trei teorii merg pe scară din ce în ce mai restrânsă, astfel încât, aplicând cu strictețe teoria, se menține și condiția de ordin biologic. Cu toate acestea, apreciem că, deși în continuare se vorbește despre o ființă umană, accentul este pus pe elementele care transcend această condiție. Prin urmare, ar putea exista o portiță pentru a recunoaște și entităților artificiale capacitatea juridică, în măsura în care ar putea să denote o astfel de voință.

La ora actuală există programe și inteligențe artificiale capabile de a naște, modifica sau stinge raporturi juridice. Majoritatea acestor programe sau entități acționează pe baza unor parametrii prestabiliți. Contractele smart sunt utilizate des în tehnologiile de tip blockchain. Fără a intra în detalii, acestea execută automat contractele când sunt întrunite condițiile și asigură securitatea tranzacțiilor fără a fi necesară supravegherea și intervenția unor autorități centrale. Deși acționează în mod automat, nu considerăm că se poate vorbi despre o voință proprie a programului. Totuși, rămâne în continuare problema: când s-ar contura în mod suficient o astfel de voință? Deși inteligența artificială cunoaște în continuare multe limitări, limbajul juridic nu este greu de transcris în sistem informatic, fiind vorba despre o sumedenie de condiții „dacă – atunci”. Prin urmare, cel mai probabil nu ar fi dificil de inventat o inteligență artificială care, fără a avea neapărat o astfel de voință liberă de a exercita drepturile, să o simuleze îndeaproape. Asta înseamnă că ar trebui recunoscută capacitatea juridică a inteligenței artificiale? În opinia noastră, nu, indiferent de existența acestei voințe sau nu. Deși această din urmă teorie este cea mai pertinentă și argumentată din punct de vedere filosofic, realitatea socială, în opinia noastră, relevă mai degrabă faptul că legiuitorul folosește prima teorie pentru a fundamenta sau nu capacitatea juridică. Astfel, mai degrabă se va conferi o astfel de personalitate juridică unor entități la momentul la care este util să se procedeze astfel, decât prin raportare la analiza libertății de voință.

VII. Cine ar avea personalitate juridică?

O altă problemă importantă, mai puțin analizată în literatura de specialitate, este cine anume ar urma să aibă personalitate juridică. Atunci când se discută despre capacitatea penală a unor roboți, deși nu se menționează expres, este evident că nu sunt avute în vedere tehnologii precum aspiratorul-robot ori o mașină de spălat inteligentă. Este vorba despre roboți precum Watson, un super-calculator creat de IBM. Acesta își desfășoară activitatea în domenii precum cercetarea genomului, pedagogie, cultivarea și selecția plantelor, diagnosticare medicală și multe altele. Este estimat că peste 70% dintre instituțiile bancare folosesc Watson[125]. Cu alte cuvinte, sunt vizați roboții/I.A. care efectuează operațiuni peste un anumit prag de complexitate. O altă problemă referitor la această chestiune pornește de la faptul că, dacă oamenii sunt, cel puțin la acest moment, limitați la corpul lor fizic, I.A. nu cunoaște astfel de limitări. Programul ei poate fi copiat sau mutat destul de ușor. Mai mult, inteligența artificială descărcată pe un calculator se poate comporta diferit de inteligența artificială descărcată pe alt calculator. Motoare de căutare, precum cele de la Google, se particularizează în funcție de căutările individuale ale fiecărei persoane, astfel încât există un subtip al inteligenței artificiale în funcție de fiecare utilizator. Chiar mai problematic, există la ora actuală I.A. care creează ea însăși o altă I.A. Există chiar și posibilitatea ca noua I.A. creată să fie mai avansată decât cea care a creat-o. În aceste condiții, cine ar trebui să aibă personalitate juridică, dacă s-ar dori adoptarea unei astfel de măsuri?

Cu privire la această problemă, cel mai frecvent se discută despre crearea unui sistem de înregistrare a I.A., similar cu sistemul de înregistrare al persoanelor juridice[126] sau similar cu cel al persoanelor fizice, cum se întâmplă în țări precum Japonia (Koseki)[127]. Fără a intra în profunzime în această problemă, semnalăm faptul că ea este una importantă atunci când vine vorba despre o eventuală răspundere proprie a inteligenței artificiale. Deocamdată, reglementarea unui sistem de înregistrare pare a fi cea mai bună soluție cu privire la această chestiune.

VIII. Ce fel de drepturi și obligații ar putea avea roboții și inteligența artificială?

Din nou, răspunsul dat aici la această problemă se vrea a fi unul exemplificativ și superficial, nicidecum exhaustiv[128]. Din punct de vedere penal, ar fi important ca roboții să aibă drept de proprietate, întrucât astfel ar putea fi posibilă aplicarea unor pedepse pecuniare și obligarea acestora la repararea prejudiciului produs. Totodată, acordarea dreptului de a avea un patrimoniu propriu ar putea rezolva unele probleme la nivelul drepturilor de autor, probleme care se reflectă și în sfera penală[129]. Există din ce în ce mai mulți roboți care au capacitatea de a crea proprietate intelectuală. Există inclusiv cărți publicate care au fost scrise în întregime de inteligență artificială[130]. Există, de asemenea, din ce în ce mai multe melodii compuse de I.A.[131], precum și picturi[132]. Un alt set de drepturi cu o semnificație importantă în dreptul penal ar fi reprezentată de recunoașterea unor drepturi la auto-conservare. Astfel de drepturi ar avea relevanță, spre exemplu, în ceea ce privește legitima apărare.

IX. Concluzii. Este sau nu pertinentă conferirea unei personalități juridice inteligenței artificiale?

Având în vedere scopul acestei lucrări, ne vom limita la a răspunde doar cu privire la o eventuală capacitate penală, fără a analiza oportunitatea unei astfel de soluții în alte ramuri de drept. Cu siguranță nu poate fi exclusă de plano o astfel de posibilitate, însă cel puțin la ora actuală, pe termen scurt și, îndrăznim să apreciem, chiar și mediu, nu pare ca fiind oportun un astfel de demers.

În primul rând, este extrem de puțin probabil ca această capacitate juridică să fie recunoscută pe cale jurisprudențială, chiar și în sistemele în care practica instanțelor are un statut diferit de cel prezent în sistemul autohton de drept. Or, în contextul actual, pare că legiuitorul își va concentra atenția pe alte domenii, pentru simplul fapt că problema nu prezintă suficientă importanță practică și nici nu rezolvă în mod esențial multe chestiuni. Teoriile prezentate supra, indiferent cât de pertinente sau nu, pălesc în fața voinței legiuitorului. Or, acesta acționează (sau cel puțin ar fi dezirabil să acționeze) pe baza unor fundamente teoretice, însă ghidat, în final, de o rațiune pragmatică în atingerea scopurilor. La acest moment, recunoașterea unui statut de „persoane electronice” pur și simplu nu rezolvă prea multe probleme de ordin practic. Din contră, odată deschisă portița unei eventuale răspunderi juridice, se pune o suită întreagă de probleme; pe unele am încercat deja să le antamăm. Spre exemplu, cine ar avea, în concret, personalitate juridică? I.A. nu este limitată la un anumit corp și poate fi clonată ușor. Toate instanțele acelei inteligențe ar avea personalitate juridică separată sau ar exista o singură personalitate juridică pentru toate? Ce drepturi și obligații ar avea inteligența artificială? Cum am pedepsi-o din punct de vedere penal și care ar fi rațiunea unei astfel de pedepse? Din punct de vedere procesual, cum ar arăta un astfel de proces? Cine ar avea dreptul de a reprezenta inteligența artificială? Ori s-ar reprezenta ea însăși, în nume propriu? Dacă da, cum? Deși s-a încercat formularea unor răspunsuri, apreciem că cercetarea în profunzime a acestei chestiuni relevă lipsa de sustenabilitate a unui astfel de demers. Argumentele prezentate anterior, conform cărora s-ar putea valorifica rolul educativ al pedepsei, sunt în mare măsură lipsite de substanță, în opinia noastră, atât timp cât tehnologia pur și simplu nu este suficient de dezvoltată pentru a înțelege și opera cu astfel de concepte. Această ultimă frază permite să dezvoltăm un alt argument în sensul respingerii teoriei capacități juridice a inteligenței artificiale; după cum urmează.

Tehnologia, la acest moment, pur și simplu nu este atât de dezvoltată precum o prezintă autorii în lucrările lor. Spre exemplu, s-a spus că există și situații în care s-ar părea că inteligența artificială creează un vid de răspundere ori un paravan de impunitate în ceea ce privește răspunderea penală. „Vital” a fost un software menit să ia decizii legate de investiții financiare într-un mod automat, pe baza capacității de a recunoaște tipare. În anul 2014, compania Deep Knowledge Ventures a susținut că a numit această inteligență artificială membru în consiliul de administrare[133]. În continuare, autorii remarcă faptul că în măsura în care respectiva persoană juridică și-ar baza decizia pe cele calculate de inteligența artificială, ar fi problematică determinarea unui lanț cauzal al răspunderii penale și determinarea vinovăției cu care a acționat aceasta. Prin urmare, autorul creează o imagine în care inteligența artificială are statut de membru cu drept decizional în consiliul de administrație. De altfel, chiar aceasta a fost poziția companiei la acel moment. În realitate însă, tot acest episod nu a fost nimic altceva decât o cascadorie mediatică care să promoveze compania. În plus, presupunând că această afirmație ar fi fost reală, locul în consiliul de administrație ar fi fost cel mult unul simbolic, fiind discutate și luate în calcul cele relevate de respectivul software. Este greu de imaginat că investitorii ar accepta ca un astfel de program să ia decizii financiare în numele lor, fără niciun fel de supraveghere. Finalmente, chiar și în măsura în care acesta ar acționa în numele companiei, în mod complet nesupravegheat, apreciem că nu se poate vorbi despre un vid de răspundere, întrucât s-ar putea identifica cel mai probabil o conduită omisivă reprobabilă din punct de vedere penal, comisă cu vinovăție. Deși există numeroase discuții la nivel conceptual cu privire la problema răspunderii penale a roboților prin prisma recunoașterii capacității juridice, fie nu se prezintă niciun exemplu concret, fie se prezintă în mod deformat starea de fapt, în special în ceea ce privește capabilitățile inteligenței artificiale. S-a contraargumentat că se impune a avea o conduită profilactică, în sensul de a nu aștepta să apară probleme de nerezolvat înainte de a interveni. Este neîndoielnic faptul că prevenția este cea mai bună variantă, însă opinăm că a recunoaște capacitate juridică inteligenței artificiale ar crea mai multe probleme decât ar rezolva. Luând în calcul toate implicațiile unui astfel de demers, aceasta pur și simplu apare ca fiind o soluție extrem de complicată relativ la problemele concrete pe care le pune la acest moment inteligența artificială.

Trecând la un strat superior, mai abstract, singurele teorii ale capacității apte de a deschide drumul pentru recunoașterea capacității penale a tehnologiilor sunt Cheshire cat (I) și cea a subiectului responsabil (III), întrucât categoria II, privitoare la orice ființă rezonabilă, exclude de plano o astfel de acțiune[134]. După cum am argumentat deja supra, categoria I este golită de un conținut fundamental, iar la ora actuală nu apreciem ca fiind util a adopta un model de răspundere penală bazat pe răspunderea proprie a inteligenței artificiale. Cu privire la categoria III, problema prealabilă care trebuie lămurită este ce trăsături, concret, trebuie să aibă voința unui subiect pentru a se bucura de capacitate juridică. Cel puțin la nivel intuitiv, inteligența artificială nu este nici măcar pe aproape de standardele pe care le impune această voință de a acționa ca un actor rațional. Lipsa unor criterii foarte precise face dificilă respingerea acestei teorii, însă se remarcă faptul că la acest moment nu există decât narrow/weak A.I., adică inteligență artificială slabă (prin opoziție cu inteligența artificială generală), strict specializată. Spre exemplu, Stockfish este un motor de șah extrem de puternic, cu mult peste capacitățile celui mai bun jucător de șah de la ora actuală, Magnus Carlsen. Cu toate acestea, capacitățile sale dincolo de jocul de șah sunt zero. Or, cu greu s-ar putea concilia o astfel de voință a unui actor responsabil cu faptul că la ora actuală inteligența artificială are o specializare îngustă.

Faptul că nu este oportună, în opinia noastră, conferirea unei capacități juridice penale nu înseamnă însă că nu există probleme la nivel conceptual în ceea ce privește inteligența artificială. Înțelegem aici să respingem soluția la problemele pe care le pune în materie juridică această tehnologie, iar nu situația premisă în sine. Problemele de cauzalitate și vinovăție în materie rămân în continuare aspecte critice de rezolvat.


* Procuror stagiar – Parchetul de pe lângă Judecătoria Aiud, doctorand în cadrul Facultății de Drept, Universitatea Babeș-Bolyai Cluj-Napoca, e-mail: husti.georgian@gmail.com.

[1] A se vedea site-ul https://www.dni.gov/files/documents/Newsroom/Testimonies/20070111_testimony.pdf.

[2] A se vedea site-ul https://www.dni.gov/files/documents/Newsroom/Testimonies/20110310_testimony_clapper.pdf.

[3] A se vedea site-ul https://www.dni.gov/files/documents/Intelligence%20Reports/2013%20ATA%20SFR%20for%20SSCI%2012%20Mar%202013.pdf.

[4] James P. Farwell & Rafal Rohozinski (2011) Stuxnet and the Future of Cyber War, Survival, 53:1, 23-40, DOI: 10.1080/00396338.2011.555586

[5] Laukyte, Migle. (2019). AI as a Legal Person. 209-213. 10.1145/3322640.3326701.

[6] Curtis E.A. Karnow – Research Handbook on the Law of Artificial Intelligence – Edward Elgar Pub (2018), p. XIX și urm.

[7] McKinsey Analytics, The state of AI in 2021, studiu accesibil on-line la adresa https://mck.co/3xKiXhr, accesat în 12 iunie 2022, ora 10.00.

[8] A se vedea site-ul https://webapp.mai.gov.ro/frontend/documente_transparenta/459_1650348699_proiect%20Lege%20testare%20autovehiculelor%20automatizate_03.02.2022.pdf, accesat în 12 iunie 2022.

[9] G. Husti, Vinovăția și alte elemente privind răspunderea penală în cazul mașinilor autonome, în Caiete de Drept Penal, nr. 3/2019, pp. 84-86.

[10] J. Turner, Robot rules. Regulating Artificial Intelligence, Editura Macmillan, Londra, 2019, p. 7.

[11] A. Sandberg, N. Bostrom, Whole brain emulation. A roadmap, Oxford University, 2008, pp. 1-113.

[12] B.J. Koops, M. Hildebrandt, D.-O. Jaquet-Chiffell, Bridging the Accountability Gap: Rights for New Entities in the Information Society?, „Minnesota Journal of Law, Science & Technology”, Vol. 11, nr. 2/2010, p. 554.

[13] Idem, p. 555.

[14] Idem, p. 558.

[15] V.A.J. Kurki, T. Pietrzykowski, Legal Personhood: Animals, Artificial Intelligence and the Unborn, Elveția, Editura Springer, 2017, p. 100.

[16] Ibidem.

[17] A.J. Hawkins, Uber is at fault for fatal self-driving crash, but it’s not alone, „The Verge”, 2019, accesibil on-line la adresa https://bit.ly/2X1ft8a, accesat la 1 aprilie 2020.

[18]Arizona’s “insufficient” policies to regulate automated vehicles on its public roads were found to have contributed to the crash. Ibidem.

[19] R. Whymant, From the archive, 9 December 1981: Robot kills factory worker, „The Guardian”, accesibil on-line la adresa https://bit.ly/39AJ2QB, accesat la 1 aprilie 2020, ora 12.00. „Labour officials blamed a combination of unfamiliarity of the workers and neglect of regulations governing the new machines”.

[20] Apud J. Turner, op. cit., p. 203.

[21] A se vedea site-ul https://bit.ly/3HdVmsq, accesat în 12 iunie 2022, ora 16.15.

[22] A se vedea rezoluția la adresa https://bit.ly/2xK5tFB, accesată la 1 aprilie 2020, ora 13.

[23] A se vedea summit-ul „AI for Good”, la adresa https://aiforgood.itu.int/, accesată la 1 aprilie 2020, ora 13.06.

[24] A se vedea raportul comisiei la adresa https://bit.ly/2UAyVXL, accesată la 1 aprilie 2020, ora 13.10.

[25] E. Reynolds, The agony of Sophia, the world’s first robot citizen condemned to a lifeless career in marketing, „The Wired”, 2018, accesibil on-line la adresa https://bit.ly/2wJqEI4, accesată la 1 aprilie 2020, ora 13.15.

[26] P. Caughill, An Artificial Intelligence Has Officially Been Granted Residency, Futurism, 6 noiembrie 2017, disponibil pe site-ul https://futurism.com/artificial-intelligence-officially-grantedresidency/, accesat la 22 decembrie 2021.

[27] G. Hallevy, Liability for crimes involving Artificial Intelligence, Editura Springer, Elveția, 2015, p. 25.

[28] Idem, p. 23.

[29] Idem, p. 24.

[30] Idem, p. 27.

[31] La nivelul societății contemporane există idealul de a acționa în mod rațional, însă așteptarea de a fi rațional întotdeauna este în sine nerezonabilă și irațională. În consecință, latura emoțională nu este și ea la fel de necesară pentru a putea vorbi despre un om? De ce utilizarea logicii formale face automat ca inteligența artificială să se apropie mai mult de un om decât o face utilizarea laturii emoționale de către animale?

[32] M.D. Dubber, T. Hörnle, Criminal Law. A Comparative Approach, Editura Oxford University Press, 2014, pp. 188-196.

[33] Dafni Lima, Could AI Agents Be Held Criminally Liable: Artificial Intelligence and the Challenges for Criminal Law, South Carolina Law Review 69, nr. 3 (Spring 2018): 677-696.

[34] F. Streteanu, D. Nițu, Drept Penal. Partea generală, Editura Universul Juridic, București, 2014, pp. 281-282.

[35] G. Hallevy, op. cit., p. 39.

[36] În același sens, că elementul unei acțiuni voluntare ține mai mult de vinovăție, a se vedea M.D. Dubber, T. Hörnle, op. cit., p. 194.

[37] G. Hallevy, op. cit., p. 88.

[38] G. Hallevy, op. cit., p. 150 și urm.

[39] În același sens, a se vedea R. Charney, Can Androids Plead Automatism – A Review of When Robots Kill: Artificial Intelligence under the Criminal Law by Gabriel Hallevy, University of Toronto, Faculty of Law Review 73, no. 1 (Winter 2015): 69-3.

[40] L. Kim, Meet South Korea’s new robotic prison guards în „digitaltrends”, publicat în 21 aprilie 2012, accesibil on-line la adresa https://bit.ly/3mnaDhq, accesat la 21 decembrie 2021.

[41] A se vedea site-ul https://www.npr.org/2021/06/01/1002196245/a-u-n-report-suggests-libya-saw-the-first-battlefield-killing-by-an-autonomous-d?t=1655030905086, accesat în 12 iunie 2022, ora 13.50.

[42] N.M. Richards, W.D. Smart, How Should the Law Think About Robots? (May 10, 2013). Disponibil la SSRN: https://ssrn.com/abstract=2263363 sau http://dx.doi.org/10.2139/ssrn.2263363.

[43] Idem, pp. 10-11.

[44] G. Hallevy, op. cit., p. 129.

[45] X. Liu, L. Faes, A.U. Kale, S.K. Wagner, D.J. Fu, A. Bruynseels, T. Mahendiran, G. Moraes, M. Shamdas, C. Kern, J.R. Ledsam, M.K. Schmid, K. Balaskas, E.J Topol, L.M. Bachmann, P.A. Keane, A.K. Denniston, A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis, The Lancet Digital Health, Volume 1, Issue 6, 2019, Pages e271-e297, ISSN 2589-7500, https://doi.org/10.1016/S2589-7500(19)30123-2. Accesat on-line la adresa https://www.sciencedirect.com/science/article/pii/S2589750019301232. Ultima accesare în 22 decembrie 2021, ora 09.37.

[46] G. Hallevy, op. cit., p. 224.

[47] C. Edwards, Will automation take over healthcare jobs? Industry experts share their opinion, în Medical Device Network, accesibil on-line la adresa https://www.medicaldevice-network.com/features/will-automation-take-healthcare-jobs-industry-experts-share-opinion/. Accesat la 22 decembrie 2021, ora 13.16.

[48] K. Graham, Of Frightened Horses and Autonomous Vehicles: Tort Law and Its Assimilation of Innovations, Santa Clara Law Review, Vol. 52 (2012), 101-131.

[49] J. Turner, op. cit., pp. 221-225.

[50] I. Reghini, Ș. Diaconescu, P. Vasilescu, Introducere în dreptul civil, Editura Hamangiu, București, 2013, p. 80.

[51] Apud I. Reghini, Ș. Diaconescu, P. Vasilescu, ibidem.

[52] Capitant, Henri, Introduction a l’étude du droit civil: notions générales, 5e édition, 1929, p. 169.

[53] V.A.J. Kurki, T. Pietrzykowski, op. cit., p. 5.

[54] Ibidem.

[55] N. Mindaugas, Should Fully Autonomous Artificial Intelligence Systems Be Granted Legal Capacity, rev. „Teises Apzvalga Law Review”, nr. 17/2018, pp. 114-116.

[56] J.C. Gray, R. Gray, op. cit., p. 28.

[57] I. Reghini, Ș. Diaconescu, P. Vasilescu, op. cit., p. 84.

[58] W. Lucy, Review of Persons in Law, by N. Naffine, Oxford Journal of Legal Studies 29, nr. 4 (2009): 787-804, accesibil on-line la adresa http://www.jstor.org/stable/27750074.

[59] Idem,p. 351.

[60] A. Neka apud N. Naffine, op. cit., p. 351.

[61] H. Kelsen apud N. Naffine, op. cit., p. 353.

[62] Tremblay v. Daigle, Supreme Court Judgments, 1989-11-16, accesată on-line la adresa https://scc-csc.lexum.com/scc-csc/scc-csc/en/item/515/index.do, la 12 martie 2022, ora 13.15.

[63] H. Capitant, op. cit., pp. 199-200.

[64] A.-R. Trandafir, Răspunderea penală a persoanei juridice, ediția II, Editura C.H. Beck, București, 2021, p. 4.

[65] Idem, p. 5.

[66] Idem, p. 6.

[67] R. Rizoiu apud A.-R. Trandafir, op. cit.,p. 7.

[68] A se vedea E. Fraser, Computers as Inventors – Legal and Policy Implications of Artificial Intelligence on Patent Law, „SCRIPTed: A Journal of Law, Technology and Society”, nr. 3/2016, pp. 305-333. De asemenea, v. V.A.J. Kurki, T. Pietrzykowski, op. cit., p. 100.

[69] G. Hallevy, op. cit.,pp. 25-37.

[70] V.A.J. Kurki, T. Pietrzykowski, op. cit., pp. 91-101.

[71] G. Hallevy, op. cit., p. 35.

[72] Ibidem.

[73] G. Hallevy, apud S.M. Solaiman, op. cit., p. 31.

[74] J.J. Bryson, M.E. Diamantis, T.D. Grant, Of, For, and By the People: The Legal Lacuna of Synthetic Persons, „Artificial Intelligence and Law”, Vol. 25, nr. 3, 30 septembrie 2017, p. 277 și urm.,pp. 273-291.

[75] Idem, p. 285 și urm.

[76] În acest sens, art. 193 alin. (2) Cod civil prevede, cu titlu de principiu, că „nimeni nu poate invoca împotriva unei persoane de bună-credință calitatea de subiect de drept a unei persoane juridice, dacă prin aceasta se urmărește ascunderea unei fraude, a unui abuz de drept sau a unei atingeri aduse ordinii publice”. Merită menționat faptul că, din punct de vedere penal, principiul este oricum acela potrivit căruia va răspunde atât persoana fizică, cât și persoana juridică.

[77] Bryson et al., op. cit., p. 286 și urm.

[78] Ibidem.

[79] Brysion et al., op. cit., p. 286.

[80] Idem, p. 288.

[81] J. Turner, op. cit., pp. 191-193.

[82] Ibidem.

[83] Ibidem.

[84] Koops et al., op. cit., pp. 499-559.

[85] J. Turner, op. cit., pp. 194-197.

[86] Idem, p. 197 și urm., M. Naucius, Should Fully Autonomous Artificial Intelligence Systems Be Granted Legal Capacity, „Teisės apžvalga Law Review”, nr. 17/2018, pp. 113-132, S.M. Solaiman, op. cit.,p. 29 și urm.

[87] J. Turner, op. cit.,p. 197.

[88] R.K. Beals, „MarketWatch”, Saudi Arabia grants robot ‘Sophia’ citizenship yet still denies many rights to real women, accesibil on-line la adresa https://on.mktw.net/2R64tmj, accesată la 3 aprilie 2020, ora 12.08.

[89] J. Turner, op. cit.,pp. 180-181.

[90] Idem, p. 181.

[91] N. Naffine, op. cit., p. 357 și urm.

[92] Ibidem.

[93] P.J. Fitzgerald, apud N.Naffine, op. cit., p. 358.

[94] L.B. Solum, op. cit., pp. 1231-1288.

[95] Ibidem.

[96] Ibidem.

[97] Ibidem, M. Solaiman, op. cit., p. 35.

[98] M. Solaiman, op. cit., p. 24.

[99] Cauza Stanley, 2015, Curtea Supremă a New York-ului.

[100] M. Solaiman, op. cit., p. 29.

[101] Idem,pp. 1-44.

[102] A se vedea cauze precum Pramatha Nath Mullick vs Pradyumna Kumar Mullick on 28 April, 1925.

Equivalent citations: (1925) 27 BOMLR 1064, accesat online la adresa https://indiankanoon.org/doc/290902/, în 13 iunie 2022, ora 13.00.

[103] Idem,p. 21 și p. 23.

[104] Idem, p. 29.

[105] Idem,p. 35.

[106] A se vedea art. 164 și urm. noul Cod civil.

[107] A se vedea [1991] 1 WLR 1362, [1991] 4 All ER 638, supranumită cauza Bumper, accesibilă on-line (rezumat) la adresa https://bit.ly/2QqHyl5, accesată la 2 aprilie 2020, ora 11.00.

[108] S.M. Solaiman, op. cit.,p. 21.

[109] Idem, p. 23.

[110] Idem,p. 29.

[111] Despre felul în care au fost tratați sclavii în antichitate, a se vedea: R.A. Bauman, Crime and Punishment in Ancient Rome, Editura Routledge, Londra, 1996.

[112] R.K. Beals, „MarketWatch”, Saudi Arabia grants robot ‘Sophia’ citizenship yet still denies many rights to real women, accesibil on-line la adresa https://on.mktw.net/2R64tmj, accesat la 3 aprilie 2020, ora 12.08.

[113] S.M. Solaiman, op. cit., p. 23.

[114] În același sens, a se vedea J.J. Bryson, M.E. Diamantis, T.D. Grant, op. cit., p. 277 și urm.

[115] În același sens a se vedea V.A.J. Kurki, T. Pietrzykowski, op. cit.,p. 97 și urm., G. Hallevy, op. cit., p. 25 și urm., J. Turner, op. cit., p. 189 și urm.

[116] A se vedea textul acestei scrisori la adresa https://bit.ly/39IP1mq, accesată la 3 aprilie 2020, ora 15.00.

[117] Textul original este în engleză: „A legal status for a robot can’t derive from the Natural Person model, since the robot would then hold human rights, such as the right to dignity, the right to its integrity, the right to remuneration or the right to citizenship, thus directly confronting the Human rights. This would be in contradiction with the Charter of Fundamental Rights of the European Union and the Convention for the Protection of Human Rights and Fundamental Freedoms”.

[118] Bryson et al., op. cit., p. 280.

[119] Idem, p. 284.

[120] G. Hallevy, op. cit., p. 9 și urm.

[121] Laukyte, Migle, (2019), AI as a Legal Person, 209-213. 10.1145/3322640.3326701.

[122] N. Naffine, op. cit., p. 362 și următoarele.

[123] Re A (Children) Conjoined Twins: Surgical Separation [2000] 4 All ER 961. http://www.bailii.org/ew/cases/EWCA/Civ/2000/254.html, accesat la 22 martie 2022, ora 12.58.

[124] N. Naffine, op. cit., pp. 363-364.

[125] A se vedea site-ul http://www.ibm.com/watson/.

[126] Laukyte, Migle (2019), AI as a Legal Person, 209-213. 10.1145/3322640.3326701.

[127] Colin P. A. Jones, The Robot Koseki: A Japanese Law Model for Regulating Autonomous Machines, Journal of Business and Technology Law 14, nr. 2 (2019): 403-468.

[128] Pentru o discuție mai profundă cu privire la aceste aspecte, a se vedea J. Turner, op. cit., p. 133 și urm.

[129] G. Hallevy, AI v. IP – Criminal Liability for Intellectual Property IP Offenses of Artificial Intelligence AI Entities (November 17, 2015). Disponibil la SSRN: https://ssrn.com/abstract=2691923 sau http://dx.doi.org/10.2139/ssrn.2691923.

[130] A se vedea, spre exemplu, Harry Potter and the Portrait of What Looked like a Large Pile of Ash, carte scrisă de un AI pe nume Botnik, https://botnik.org/content/harry-potter.html, accesat la 7 aprilie 2020, ora 15.00.

[131] A se vedea, spre exemplu, piesa On the Edge, compusă de un AI pe nume AIVA, piesă disponibilă on-line la adresa https://www.youtube.com/watch?v=gA03iyI3yEA, accesată la 7 aprilie 2020, ora 15.00.

[132] A se vedea, spre exemplu, această galerie de picturi create de AI: https://www.cbsnews.com/pictures/art-created-by-artificial-intelligence/, accesată la 7 aprilie 2020, ora 15.00.

[133] Dyer-Witheford, Nick (2015). Dean, Jodi; Hands, Joss; Jordan, Tim (eds.). Cyber-proletariat: Global Labour in the Digital Vortex, Londra, Pluto Press, pp. 1-2. ISBN 978-0-7453-3404-2.

[134] Din nou atragem atenția că, potrivit articolului citat, și în cea de-a treia categorie este prevăzută condiția fiziologică, însă am inclus-o aici întrucât, considerăm noi, aspectul biologic nu mai este de esența teoriei. Aspectul esențial îl reprezintă voința rezonabilă.

Poate avea inteligența artificială capacitate penală? was last modified: iunie 17th, 2024 by Costache Adrian

Recomandări

Căutare