CAPITOLUL IV
OBLIGAȚII DE TRANSPARENȚĂ PENTRU FURNIZORII ȘI IMPLEMENTATORII ANUMITOR SISTEME DE IA
Articolul 50
Obligații de transparență pentru furnizorii și implementatorii anumitor sisteme de IA
(1) Furnizorii se asigură că sistemele de IA destinate să interacționeze direct cu persoane fizice sunt proiectate și dezvoltate astfel încât persoanele fizice în cauză să fie informate că interacționează cu un sistem de IA, cu excepția cazului în care acest lucru este evident din punctul de vedere al unei persoane fizice rezonabil de bine informată, de atentă și de avizată, ținând seama de circumstanțele și contextul de utilizare. Această obligație nu se aplică sistemelor de IA autorizate prin lege pentru a depista, a preveni, a investiga sau a urmări penal infracțiunile, sub rezerva unor garanții adecvate pentru drepturile și libertățile terților, cu excepția cazului în care aceste sisteme sunt disponibile publicului pentru a denunța o infracțiune.
(2) Furnizorii de sisteme de IA, inclusiv de sisteme de IA de uz general, care generează conținut sintetic în format audio, imagine, video sau text, se asigură că rezultatele sistemului de IA sunt marcate într-un format prelucrabil automat și detectabile ca fiind generate sau manipulate artificial. Furnizorii se asigură că soluțiile lor tehnice sunt eficace, interoperabile, solide și fiabile, în măsura în care acest lucru este fezabil din punct de vedere tehnic, ținând seama de particularitățile și limitările diferitelor tipuri de conținut, de costurile de punere în aplicare și de stadiul de avansare general recunoscut al tehnologiei, astfel cum poate fi reflectat în standardele tehnice relevante. Această obligație nu se aplică în măsura în care sistemele de IA îndeplinesc o funcție de asistare pentru editarea standard sau nu modifică în mod substanțial datele de intrare furnizate de implementator sau semantica acestora sau în cazul în care sunt autorizate prin lege să depisteze, să prevină, să investigheze sau să urmărească penal infracțiunile.
(3) Implementatorii unui sistem de recunoaștere a emoțiilor sau ai unui sistem de clasificare biometrică informează persoanele fizice expuse sistemului respectiv cu privire la funcționarea acestuia și prelucrează datele cu caracter personal în conformitate cu Regulamentele (UE) 2016/679 și (UE) 2018/1725 și cu Directiva (UE) 2016/680, după caz. Această obligație nu se aplică sistemelor de IA utilizate pentru clasificarea biometrică și recunoașterea emoțiilor, care sunt autorizate prin lege să depisteze, să prevină sau să investigheze infracțiunile, sub rezerva unor garanții adecvate pentru drepturile și libertățile terților și în conformitate cu dreptul Uniunii.
(4) Implementatorii unui sistem de IA care generează sau manipulează imagini, conținuturi audio sau video care constituie deepfake-uri dezvăluie faptul că respectivul conținut a fost generat sau manipulat artificial. Această obligație nu se aplică în cazul în care utilizarea este autorizată prin lege pentru depistarea, prevenirea, investigarea sau urmărirea penală a infracțiunilor. În cazul în care conținutul face parte dintr-o operă sau dintr-un program de o vădită natură artistică, creativă, satirică, fictivă sau analogă, obligațiile de transparență prevăzute la prezentul alineat se limitează la divulgarea existenței unui astfel de conținut generat sau manipulat într-un mod adecvat, care să nu împiedice afișarea sau receptarea operei.
Implementatorii unui sistem de IA care generează sau manipulează texte publicate cu scopul de a informa publicul cu privire la chestiuni de interes public dezvăluie faptul că textul a fost generat sau manipulat artificial. Această obligație nu se aplică în cazul în care utilizarea este autorizată prin lege pentru a depista, a preveni, a investiga sau a urmări penal infracțiunile sau în cazul în care conținutul generat de IA a fost supus unui proces de verificare editorială sau revizuire umană și responsabilitatea editorială pentru publicarea conținutului este deținută de o persoană fizică sau juridică.
(5) Informațiile menționate la alineatele (1)-(4) sunt furnizate persoanelor fizice în cauză într-un mod clar și distinct, cel târziu în momentul primei interacțiuni sau al primei expuneri. Informațiile trebuie să respecte cerințele de accesibilitate aplicabile.
(6) Alineatele (1)-(4) nu aduc atingere cerințelor și obligațiilor prevăzute în capitolul III și nici altor obligații de transparență pentru implementatorii de sisteme de IA prevăzute în dreptul Uniunii sau în dreptul intern.
(7) Oficiul pentru IA încurajează și facilitează elaborarea de coduri de bune practici la nivelul Uniunii pentru a facilita punerea în aplicare efectivă a obligațiilor privind depistarea și etichetarea conținutului generat sau manipulat artificial. Comisia poate să adopte acte de punere în aplicare pentru a aproba respectivele coduri de bune practici în conformitate cu procedura prevăzută la articolul 56 alineatul (6). În cazul în care consideră că codul nu este adecvat, Comisia poate să adopte un act de punere în aplicare care să precizeze normele comune pentru punerea în aplicare a obligațiilor respective, în conformitate cu procedura de examinare prevăzută la articolul 98 alineatul (2).