Intelligence artificielleRome bloque ChatGPT pour non-respect des données personnelles
Le robot conversationnel a subi une perte de données des conversations et ne contrôle pas l’âge des utilisateurs. L’Italie a donné trois semaines à OpenAI pour remédier à la situation.
Les autorités italiennes ont annoncé, vendredi, leur décision de bloquer le robot conversationnel ChatGPT, accusé de ne pas respecter la législation sur les données personnelles et de ne pas avoir de système pour vérifier l’âge des usagers mineurs. Cette décision «avec effet immédiat» aura pour conséquence «la limitation provisoire du traitement des données des utilisateurs italiens vis-à-vis d’OpenAI», créateur de ChatGPT, a indiqué l’Autorité nationale de protection des données personnelles.
ChatGPT est apparu en novembre et a rapidement été pris d’assaut par des utilisateurs impressionnés par sa capacité à répondre clairement à des questions difficiles, à écrire des sonnets et même à réussir des examens. Il peut également être utilisé pour écrire du code informatique, sans avoir les connaissances techniques.
L’autorité italienne souligne que ChatGPT «a subi, le 20 mars, une perte de données (data breach) concernant les conversations des utilisateurs et les informations relatives au paiement des abonnés». Elle reproche aussi au logiciel d’intelligence artificielle «l’absence d’une note d’information aux utilisateurs, dont les données sont récoltées par OpenAI, mais surtout l’absence d’une base juridique justifiant le recueil et la conservation en masse des données personnelles, dans le but d'«entraîner» les algorithmes faisant fonctionner la plateforme».
En outre, alors que le robot est destiné aux personnes de plus de 13 ans, «l’autorité met l’accent sur le fait que l’absence de tout filtre, pour vérifier l’âge des utilisateurs, expose les mineurs à des réponses absolument non conformes par rapport à leur niveau de développement».
L’autorité demande à OpenAI de «communiquer d’ici 20 jours les mesures entreprises» pour remédier à cette situation, «sous peine d’une sanction allant jusqu’à 20 millions d’euros ou jusqu’à 4% du chiffre d’affaires mondial annuel».
Cette annonce intervient alors que l’agence de police européenne Europol a averti, lundi, que les criminels étaient prêts à tirer parti de l’intelligence artificielle, comme le robot conversationnel ChatGPT, pour commettre des fraudes et d’autres cybercrimes. Du phishing à la désinformation et aux logiciels malveillants, les capacités en évolution rapide des robots de conversation (chatbots) sont susceptibles d’être rapidement exploitées par des personnes malintentionnées, a estimé Europol.
Elon Musk et des centaines d’experts mondiaux ont signé, mercredi, un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé mi-mars, en évoquant «des risques majeurs pour l’humanité».