Parlamentul European şi-a adoptat miercuri, la Strasbourg, poziţia de negociere referitoare la Legea privind inteligenţa artificială (IA).
Sistemele AI cu un ”nivel inacceptabil de risc”, precum cele pentru supravegherea biometrică sau cele polițienești bazate pe analiza predictivă, ar urma să fie interzise.
Au fost 499 voturi pentru, 28 împotrivă şi 93 abţineri, dând undă verde unor norme care îşi propun să garanteze o IA sigură şi transparentă.
Poziţia de negociere a PE va servi la discuţiile cu statele membre ale Uniunii despre forma finală a legii.
Normele ar trebui să garanteze că IA dezvoltată şi utilizată în Europa respectă pe deplin drepturile şi valorile Uniunii Europene, inclusiv supravegherea umană, siguranţa, viaţa privată, transparenţa, nediscriminarea şi bunăstarea socială şi de mediu, informează un comunicat al PE.
Obligaţii şi interdicţii pentru IA
Normele urmează o abordare bazată pe riscuri şi stabilesc obligaţii pentru furnizori şi pentru cei care implementează sisteme de IA, în funcţie de nivelul de risc pe care îl poate prezenta inteligenţa artificială.
Astfel, sistemele de IA cu un nivel inacceptabil de risc pentru siguranţa oamenilor ar urma să fie interzise, precum cele care utilizează evaluarea comportamentului social (clasificând oamenii pe baza comportamentului social sau a caracteristicilor personale).
Eurodeputaţii au inclus în listă interdicţii referitoare la utilizările intruzive şi discriminatorii ale IA, cum ar fi utilizarea sistemelor de identificare biometrică la distanţă „în timp real” sau „ulterioară” în spaţii accesibile publicului sau sistemele biometrice de clasificare, care folosesc caracteristici sensibile, precum genul, rasa, etnia, statutul de cetăţenie, religia, orientarea politică.
De asemenea, sunt vizate sistemele poliţieneşti bazate pe analiza predictivă, care pleacă de la profilare, localizare sau comportamentul infracţional anterior.
În aceleaşi timp, eurodeputaţii vor interzicerea sistemelor de recunoaştere a emoţiilor folosite la locul de muncă sau în cadrul instituţiilor de învăţământ, ori în domeniul aplicării legii sau al gestionării frontierelor sau a extragerii fără scop precis a datelor biometrice din imaginile faciale de pe Internet sau înregistrări făcute de televiziunile cu circuit închis pentru a crea baze de date de recunoaştere facială.
Eurodeputaţii s-au asigurat că clasificarea aplicaţiilor cu grad ridicat de risc va include acum sistemele de AI care afectează în mod semnificativ sănătatea, siguranţa sau drepturile fundamentale ale oamenilor ori mediul înconjurător.
Sistemele de IA folosite pentru a influenţa alegătorii şi rezultatul alegerilor şi în sistemele de recomandare utilizate de platformele de comunicare socială (cu peste 45 de milioane de utilizatori) au fost adăugate pe lista cu risc ridicat.
Furnizorii de sisteme de inteligenţă artificială de uz general – o branşă nouă, cu evoluţie rapidă în domeniul IA – vor trebui să evalueze şi să atenueze posibilele riscuri – faţă de sănătate, siguranţă, drepturile fundamentale, mediu, democraţie şi statul de drept – şi să îşi înregistreze modelele în baza de date a Uniunii înainte de a le lansa pe piaţa UE.
Reguli pentru sistemele de genul ChatGPT
Sistemele de IA generative bazate pe astfel de modele, cum ar fi ChatGPT, ar trebui să respecte cerinţele de transparenţă, adică trebuie să divulge când un conţinut a fost generat de IA, inclusiv pentru a ajuta la distingerea aşa-numitelor imagini „deep fake” de cele reale, şi să introducă garanţii împotriva generării de conţinut ilegal.
Ar trebui să fie puse la dispoziţia publicului şi rezumate detaliate ale datelor protejate prin drepturi de autor folosite pentru a antrena aceste sisteme, consideră PE.
Pentru a stimula inovarea în domeniul IA şi pentru a sprijini IMM-urile, deputaţii au adăugat derogări pentru activităţile de cercetare şi componentele de IA furnizate sub licenţe cu sursă deschisă.
Noua lege promovează aşa-numitele „spaţii de testare în materie de reglementare”, adică medii controlate similare cu cel real, create de autorităţile publice pentru a testa IA înainte de a o folosi în situaţii reale.
Nu în ultimul rând, eurodeputaţii doresc să consolideze dreptul cetăţenilor de a depune plângeri despre sistemele de IA şi de a primi explicaţii despre deciziile bazate pe sisteme de IA cu grad ridicat de risc care au un impact semnificativ asupra drepturilor lor fundamentale.
Ce face Oficiul pentru IA al Uniunii Europene
De asemenea, eurodeputaţii au actualizat rolul Oficiului pentru IA al Uniunii Europene, care va avea sarcina de a monitoriza modul în care este pus în aplicare cadrul de reglementare privind IA.
„Toţi ochii sunt aţintiţi asupra noastră astăzi. În timp ce companiile Big Tech trag un semnal de alarmă cu privire la propriile creaţii, Europa a mers mai departe şi a propus un răspuns concret la riscurile pe care AI începe să le prezinte”, a declarat coraportorul italian Brando Benifei (S&D), după vot.
„Legea IA va da tonul la nivel mondial în ceea ce priveşte dezvoltarea şi guvernanţa inteligenţei artificiale, asigurându-se că această tehnologie, menită să transforme radical societăţile noastre prin beneficiile masive pe care le poate oferi, evoluează şi este utilizată în conformitate cu valorile europene ale democraţiei, drepturilor fundamentale şi statului de drept”, a declarat, la rândul său, coraportorul român Dragoş Tudorache (Renew), citat în comunicatul PE.
Negocierile cu Consiliul cu privire la forma finală a legii vor urma.