Etats-UnisLa présidentielle américaine sera-t-elle perturbée par l’IA?
Des appels truqués imitant récemment la voix du président Joe Biden exacerbent les craintes des experts.
Le spectre d’une abondante désinformation concoctée avec de l’intelligence artificielle (IA) planait déjà sur la course à la Maison Blanche, mais des appels truqués imitant récemment la voix du président Joe Biden exacerbent les craintes des experts.
«Quel tas de foutaises!», clame le message diffusé par appel automatisé (robocall) usurpant la voix du président, manipulée numériquement (deepfake) pour inciter les habitants du New Hampshire à ne pas aller voter lors de la primaire démocrate.
Ce message a poussé les autorités locales à lancer rapidement une enquête sur une potentielle «tentative illégale de perturber» le scrutin de fin janvier.
Les chercheurs spécialisés en désinformation craignent une multiplication des détournements dans cette année électorale cruciale, grâce aux nombreux outils désormais disponibles pour cloner des voix avec l’IA.
D’autant que, selon eux, ils sont bons marchés, faciles d’utilisation et difficiles à tracer.
«Il s’agit à coup sûr de la partie émergée de l’iceberg», affirme à l’AFP Vijay Balasubramaniyan, directeur général et cofondateur de l’entreprise de cybersécurité Pindrop.
«Nous pouvons nous attendre à voir beaucoup plus de deepfakes pendant cette période électorale», prévient-il.
Selon une analyse effectuée par Pindrop, le logiciel de clonage de voix développé par la startup ElevenLabs a été utilisé pour créer les faux appels de Joe Biden.
Chaos politique
Une affaire qui surgit au moment où les équipes de campagne des deux camps fourbissent leur attirail agrémenté d’IA pour faire circuler leurs positions et que les investisseurs déversent des millions de dollars dans les startups de clonage vocal.
Sollicitée à plusieurs reprises par l’AFP, ElevenLabs n’a pas répondu. Son site internet propose une version gratuite de clonage «pour créer instantanément avec l’IA des voix naturelles dans n’importe quelle langue».
Ses recommandations d’utilisation précisent qu’il est permis de cloner la voix de personnalités politiques d’une manière «humoristique ou parodique» qui soit «clairement identifiable comme telle» par l’auditeur.
Les appels truqués de Joe Biden ont exposé au grand jour la possibilité que des personnes mal intentionnées utilisent les outils de l’intelligence artificielle pour dissuader les électeurs de se rendre aux urnes.
«Le moment du deepfake politique est arrivé», constate Robert Weissman, président du groupe de protection des droits civiques Public Citizen.
«Les parlementaires doivent agir rapidement pour ériger des protections sinon nous nous acheminons vers un chaos politique», dit-il à l’AFP. «Le deepfake du New Hampshire illustre les nombreuses manières dont les manipulations numériques peuvent semer la confusion».
La présidentielle de novembre est largement considérée comme la première élection marquée par l’IA aux Etats-Unis, les experts s’inquiétant de son impact sur la confiance dans le processus démocratique, avec des électeurs qui auront du mal à discerner le vrai du faux.
Intégrité des élections
Les manipulations audios génèrent le plus de craintes, car elles représentent le point «le plus vulnérable», estime Tim Harper, analyste au Center for Democracy and Technology.
«Il est facile de cloner une voix en utilisant l’IA et difficile de le repérer», souligne-t-il à l’AFP.
Car les logiciels d’IA prolifèrent plus vite que ceux dédiés à la détection de faux.
L’IA intervient dans un paysage politique déjà tendu et extrêmement polarisé, permettant par exemple à quiconque de prétendre qu’une information s’appuie sur des faits «fabriqués de toutes pièces», abonde Wasim Khaled, directeur général de Blackbird.AI., une plateforme de détection de la désinformation en ligne.
La société chinoise ByteDance, propriétaire de TikTok, a récemment dévoilé StreamVoice, un logiciel d’IA permettant de transformer en temps réel la voix de son utilisateur en n’importe quelle autre.
«ElevenLabs a été utilisé cette fois-ci mais il est plus que probable qu’un dispositif génératif différent soit utilisé dans de futures attaques», avance Vijay Balasubramaniyan, plaidant pour la création de «garde-fous».
A l’instar d’autres experts, il recommande l’intégration de filigranes audios ou de signatures numériques dans ces logiciels comme protection mais aussi comme réglementation pour les réserver à des utilisateurs vérifiés.
Même sous ces conditions, les contrôles risquent d’être «vraiment difficiles et très chers», affirme l’analyste Tim Harper, qui appelle à «investir» davantage face à ce risque pour «l’intégrité des élections».