CAPITOLUL III
SISTEME DE IA CU GRAD RIDICAT DE RISC
SECȚIUNEA 1
Clasificarea sistemelor de IA ca prezentând un risc ridicat
Articolul 6
Norme de clasificare pentru sistemele de IA cu grad ridicat de risc
(1) Indiferent dacă un sistem de IA este introdus pe piață sau pus în funcțiune independent de produsele menționate la literele (a) și (b), respectivul sistem de IA este considerat ca prezentând un grad ridicat de risc în cazul în care sunt îndeplinite cumulativ următoarele două condiții:
(a) |
sistemul de IA este destinat a fi utilizat ca o componentă de siguranță a unui produs sau sistemul de IA este el însuși un produs care face obiectul legislației de armonizare a Uniunii care figurează în anexa I; |
(b) |
produsul a cărui componentă de siguranță în temeiul literei (a) este sistemul de IA sau sistemul de IA în sine ca produs trebuie să fie supus unei evaluări a conformității de către o terță parte, în vederea introducerii pe piață sau a punerii în funcțiune a produsului respectiv în temeiul legislației de armonizare a Uniunii care figurează în anexa I. |
(2) Sistemele de IA menționate în anexa III sunt considerate, pe lângă sistemele de IA cu grad ridicat de risc menționate la alineatul (1), ca prezentând un grad ridicat de risc.
(3) Prin derogare de la alineatul (2), un sistem de IA menționat în anexa III nu poate fi considerat ca prezentând un grad ridicat de risc dacă nu prezintă un risc semnificativ de a aduce prejudicii sănătății, siguranței sau drepturilor fundamentale ale persoanelor fizice, inclusiv prin faptul că nu influențează în mod semnificativ rezultatul procesului decizional.
Primul paragraf se aplică în cazul în care oricare dintre următoarele condiții este îndeplinită:
(a) |
sistemul de IA este destinat să îndeplinească o sarcină procedurală restrânsă; |
(b) |
sistemul de IA este destinat să îmbunătățească rezultatul unei activități umane finalizate anterior; |
(c) |
sistemul de IA este destinat să depisteze modelele decizionale sau abaterile de la modelele decizionale anterioare și nu este menit să înlocuiască sau să influențeze evaluarea umană finalizată anterior, fără o revizuire umană adecvată; sau |
(d) |
sistemul de IA este destinat să îndeplinească o sarcină pregătitoare pentru o evaluare relevantă în scopul cazurilor de utilizare enumerate în anexa III. |
În pofida primului paragraf, un sistem de IA menționat în anexa III este întotdeauna considerat ca prezentând un grad ridicat de risc dacă creează profiluri ale persoanelor fizice.
(4) Orice furnizor care consideră că un sistem de IA menționat în anexa III nu prezintă un grad ridicat de risc documentează evaluarea sa înainte ca sistemul respectiv să fie introdus pe piață sau pus în funcțiune. Furnizorul respectiv este supus obligației de înregistrare prevăzute la articolul 49 alineatul (2). La cererea autorităților naționale competente, furnizorul pune la dispoziție dovezile documentare în sprijinul evaluării.
(5) După consultarea Consiliului european pentru inteligența artificială (denumit în continuare „Consiliul IA”) și în termen de cel mult 2 februarie 2026, Comisia furnizează orientări care precizează modalitățile privind punerea în aplicare practică a prezentului articol, în conformitate cu articolul 96, împreună cu o listă cuprinzătoare de exemple practice de cazuri de utilizare a sistemelor de IA care prezintă un grad ridicat de risc și a celor care nu prezintă un grad ridicat de risc.
(6) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica alineatul (3) al doilea paragraf de la prezentul articol prin adăugarea de noi condiții față de cele prevăzute la dispoziția menționată sau prin modificarea acestora, în cazul în care există dovezi concrete și fiabile ale existenței unor sisteme de IA care intră în domeniul de aplicare al anexei III, dar care nu prezintă un risc semnificativ de a aduce prejudicii sănătății, siguranței sau drepturilor fundamentale ale persoanelor fizice.
(7) Comisia adoptă acte delegate în conformitate cu articolul 97 pentru a modifica alineatul (3) al doilea paragraf de la prezentul articol prin eliminarea oricăreia dintre condițiile prevăzute la dispoziția menționată, în cazul în care există dovezi concrete și fiabile că acest lucru este necesar în scopul menținerii nivelului de protecție a sănătății, a siguranței și a drepturilor fundamentale prevăzut în prezentul regulament.
(8) Orice modificare a condițiilor prevăzute la alineatul (3) al doilea paragraf, adoptată în conformitate cu alineatele (6) și (7) de la prezentul articol, nu reduce nivelul general de protecție a sănătății, a siguranței și a drepturilor fundamentale prevăzut în prezentul regulament și asigură corelarea cu actele delegate adoptate în temeiul articolului 7 alineatul (1) și ține seama de evoluțiile pieței și ale tehnologiei.
Articolul 7
Modificări ale anexei III
(1) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica anexa III prin adăugarea de cazuri de utilizare a sistemelor de IA cu grad ridicat de risc sau prin modificarea unor astfel de cazuri dacă sunt îndeplinite cumulativ următoarele două condiții:
(a) |
sistemele de IA sunt destinate a fi utilizate în oricare dintre domeniile enumerate în anexa III; |
(b) |
sistemele de IA prezintă un risc de a aduce prejudicii sănătății și siguranței sau un risc de impact negativ asupra drepturilor fundamentale, iar riscul respectiv este echivalent sau mai mare în raport cu riscul de a aduce prejudicii sau de a provoca un impact negativ prezentat de sistemele de IA cu grad ridicat de risc deja menționate în anexa III. |
(2) Atunci când evaluează condiția prevăzută la alineatul (1) litera (b), Comisia ia în considerare următoarele criterii:
(a) |
scopul preconizat al sistemului de IA; |
(b) |
măsura în care a fost utilizat sau este probabil să fie utilizat un sistem de IA; |
(c) |
natura și volumul datelor prelucrate și utilizate de sistemul de IA, în special dacă sunt prelucrate categorii speciale de date cu caracter personal; |
(d) |
măsura în care sistemul de IA acționează în mod autonom și posibilitatea ca o persoană să anuleze o decizie sau recomandări care atrag un potențial prejudiciu; |
(e) |
măsura în care utilizarea unui sistem de IA a adus deja prejudicii sănătății și siguranței, a avut un impact negativ asupra drepturilor fundamentale sau a generat motive de îngrijorare semnificative în ceea ce privește probabilitatea unor astfel de prejudicii sau a unui astfel de impact negativ, astfel cum o demonstrează, de exemplu, rapoartele sau acuzațiile documentate prezentate autorităților naționale competente sau alte rapoarte, după caz; |
(f) |
amploarea potențială a unor astfel de prejudicii sau a unui astfel de impact negativ, în special în ceea ce privește intensitatea și capacitatea sa de a afecta numeroase persoane sau de a afecta în mod disproporționat un anumit grup de persoane; |
(g) |
măsura în care persoanele care sunt potențial prejudiciate sau afectate de un impact negativ depind de rezultatul produs cu ajutorul unui sistem de IA, în special deoarece, din motive practice sau juridice, nu este posibil în mod rezonabil să se renunțe la rezultatul respectiv; |
(h) |
măsura în care există un dezechilibru de putere sau persoanele care sunt potențial prejudiciate sau afectate de impactul negativ se află într-o poziție vulnerabilă în raport cu implementatorul unui sistem de IA, în special din cauza statutului, a autorității, a cunoștințelor, a circumstanțelor economice sau sociale sau a vârstei; |
(i) |
măsura în care rezultatul produs cu implicarea unui sistem de IA este ușor de corectat sau reversibil, avându-se în vedere soluțiile tehnice disponibile pentru corectare sau reversare și dat fiind că rezultatele care au un impact negativ asupra sănătății, siguranței sau drepturilor fundamentale nu sunt considerate ca fiind ușor de corectat sau reversibile; |
(j) |
amploarea și probabilitatea beneficiilor implementării sistemului de IA pentru persoane fizice, grupuri sau societate în general, inclusiv îmbunătățirile posibile ale siguranței produselor; |
(k) |
măsura în care dreptul existent al Uniunii prevede:
|
(3) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica lista din anexa III prin eliminarea de sisteme de IA cu grad ridicat de risc în cazul în care sunt îndeplinite cumulativ următoarele două condiții:
(a) |
sistemul de IA cu grad ridicat de risc în cauză nu mai prezintă riscuri semnificative pentru drepturile fundamentale, sănătate sau siguranță, ținând seama de criteriile enumerate la alineatul (2); |
(b) |
eliminarea nu reduce nivelul general de protecție a sănătății, siguranței și drepturilor fundamentale în temeiul dreptului Uniunii. |