Intelligence artificielleLe simulateur de voix ElevenLabs s’inquiète des abus
Un service de clonage de voix a relevé des détournements abusifs de ses fonctions, notamment pour tenir des propos racistes dans la bouche de stars.
La start-up ElevenLabs, qui développe un outil de clonage de voix grâce à l’intelligence artificielle, a dit constater un «nombre croissant d’utilisations abusives» de son logiciel, alors que les trucages audio pullulent sur Internet. Basée à Londres, ElevenLabs a récemment lancé une version d’essai de sa plateforme de création d’«outils de synthèse vocale ultraréalistes», après avoir levé 2 millions de dollars (quelque 2 millions de francs).
Des utilisateurs du forum anonyme 4Chan ont partagé des messages générés par le logiciel et imitant la voix de célébrités, comme l’actrice britannique Emma Watson, ou l’animateur américain de podcasts Joe Rogan, pour leur faire prononcer des textes à caractère raciste, sexiste et homophobe.
Renforcer le processus d’identification
Dans l’un de ces extraits, une «fausse» Emma Watson lit un passage de «Mein Kampf». Dans un autre clip, un clone vocal du commentateur ultra-conservateur Ben Shapiro menace de violer l’élue new-yorkaise Alexandria Ocasio-Cortez. Les voix des réalisateurs Quentin Tarantino et George Lucas ont également été détournées. «Nous aimerions résoudre ce problème en mettant en place des mesures de protection supplémentaires», a tweeté lundi, ElevenLabs, qui n’a pas renvoyé vers des incidents spécifiques.
La start-up propose de renforcer le processus d’identification des utilisateurs, de mieux vérifier les droits d’auteur des échantillons soumis et de procéder à des vérifications manuelles. Elle fait partie des nombreuses sociétés à développer des logiciels d’intelligence artificielle pour le grand public.
Fort intérêt
Ces outils suscitent un fort intérêt depuis le lancement en fin d’année dernière du robot conversationnel ChatGPT par l’entreprise californienne OpenAI, capable de répondre à des questions variées et de rédiger des textes.
Mais ils s’accompagnent aussi de craintes liées aux hypertrucages ou «deepfakes», ces manipulations numériques permettant de remplacer de manière réaliste un visage ou une voix, et leur faire tenir des propos créés de toutes pièces.