Les criminels sont prêts à abuser de ChatGPT

Publié

IALes criminels sont prêts à abuser de ChatGPT

Des personnes malintentionnées sont en passe de tirer parti de l’IA comme le robot conversationnel d’OpenAI pour commettre des fraudes et d’autres cybercrimes, a averti lundi l’agence de police européenne Europol.

OpenAI a lancé ChatGPT en fin d’année dernière.

OpenAI a lancé ChatGPT en fin d’année dernière.

AFP

Du phishing à la désinformation et aux logiciels malveillants, les capacités en évolution rapide des robots de conversation (chatbots) sont susceptibles d’être rapidement exploitées par des personnes malintentionnées, a déclaré Europol dans un nouveau rapport. Créé par la start-up américaine OpenAI, ChatGPT est apparu en novembre et a rapidement été pris d’assaut par des utilisateurs émerveillés par sa capacité à répondre clairement à des questions difficiles, à écrire des sonnets ou du code, et même à réussir des examens. «L’exploitation potentielle de ces types de systèmes d’IA (intelligence artificielle) par des criminels offre de sombres perspectives», a déclaré Europol, basé à La Haye (Pays-Bas).

Le nouveau «Laboratoire d’innovation» d’Europol a examiné l’utilisation des chatbots dans son ensemble mais s’est concentré sur ChatGPT, car il s’agit du plus médiatisé et du plus utilisé. Les criminels pourraient utiliser ChatGPT pour «accélérer considérablement le processus de recherche» dans des domaines dont ils ne connaissent rien, comme la rédaction d’un texte pour commettre une fraude ou donner des informations sur «comment entrer par effraction dans une maison, le terrorisme, la cybercriminalité et les abus sexuels sur des enfants», a soulevé l’agence.

La capacité du chatbot à imiter les styles de discours l’a rendu particulièrement efficace pour créer des mails de «phishing» (hameçonnage), et sa capacité à produire rapidement un texte le rend «idéal à des fins de propagande et de désinformation», avertit Europol. ChatGPT peut également être utilisé pour écrire du code informatique, sans avoir les connaissances techniques.

Bien que ChatGPT ait des garanties, comme une modération du contenu – qui implique que le robot ne répond pas aux questions classées nuisibles ou biaisées -, celles-ci pourraient être contournées, a déclaré Europol. L’IA en est encore à ses débuts et ses capacités devraient «s’améliorer encore avec le temps», a ajouté l’agence. «Il est de la plus haute importance que la sensibilisation soit accrue à ce sujet, afin de garantir que toute faille potentielle soit découverte et comblée le plus rapidement possible».

(AFP)

Ton opinion

1 commentaire