Les autoritats italianes han prohibit ChatGPT perquè no compleix la directiva europea de protecció de dades.
L’empresa americana del chatbot, OpenAI, ha fet servir tot tipus de dades per entrenar el seu algoritme d’intel·ligència artificial, entre les que s’han mostrat converses privades o dades bancàries.
I tampoc filtra l’accés al menors.
L’autoritat italiana de protecció de dades va anunciar que l’empresa OpenAI té 20 dies per dir com respondrà a les preocupacions de l’organisme, sota risc d’una multa de $21,7 milions de dòlars o fins al 4% dels ingressos anuals. Que mostra la importància del compliment normatiu que han de seguir les companyies que operen a Europa, que han de prioritzar la protecció de les dades personals i complir amb les estrictes normes de protecció de dades establertes per la Unió Europea.
L’empresa haurà de sustentar l’origen de la informació que subministra ChatGPT, i també hauran de justificar les infraccions per les quals està sent investigada: la infracció dels articles 5, 6, 8, 13 i 25 del Reglament General de Protecció de Dades europeu.
Tot i que que la Unió Europea està treballant actualment a la primera legislació del món sobre intel·ligència artificial, aquesta com sabem pot tardar molt de temps en ser aplicada, i Itàlia, empesa pel debat públic obert per la principal organització de consumidors i usuaris del país, ha decidit aplicar la llei de protecció de dades per restringir-ne el seu ús.
La subdirectora general de l’organització de consumidors, Ursula Pachl, ha advertit que la societat “actualment no està prou protegida del mal” que la intel·ligència artificial pot causar i que “existeixen serioses preocupacions sobre com ChatGPT i chatbots similars poden enganyar i manipular les persones”.
La prohibició com veiem es el resultat d’un debat social molt més profund, i que tot just comença.