Intelligence artificielle: Le patron d’OpenAI met en garde contre une «règlementation stricte» de l’IA

Publié

Intelligence artificielleLe patron d’OpenAI met en garde contre une «règlementation stricte» de l’IA

Sam Altman, dont l’entreprise a créé l’interface ChatGPT, a toutefois souligné la nécessité d’une surveillance institutionnelle à long terme.

AFP

Le patron d’OpenAI, Sam Altman, s’est prononcé lundi contre une «réglementation stricte» de l’intelligence artificielle (IA), qui risque d’entraver son développement, soulignant toutefois la nécessité d’une surveillance institutionnelle à long terme.

Risque réel d’une «superintelligence» mal utilisée

Le mois dernier, M. Altman, dont l’entreprise a créé l’interface ChatGPT, a estimé devant une commission parlementaire américaine que l’intervention des gouvernements pour réguler l’IA sera «cruciale» pour «limiter les risques» liés à cette technologie.

Sam Altman est un entrepreneur, investisseur et programmeur américain, fondateur et PDG de l'entreprise d'intelligence artificielle OpenAI, créatrice du logiciel ChatGPT.

Sam Altman est un entrepreneur, investisseur et programmeur américain, fondateur et PDG de l'entreprise d'intelligence artificielle OpenAI, créatrice du logiciel ChatGPT.

AFP

Le patron d’OpenAI, qui s’exprimait lundi à l’université de Tel Aviv, a souligné toutefois que son appel à une surveillance de l’IA ne concernait pas «les systèmes d’aujourd’hui». «Je pense que ce serait une erreur de réglementer strictement ce domaine ou d’essayer de ralentir cette incroyable innovation», a-t-il déclaré.

«Ce serait une erreur d’essayer de ralentir cette incroyable innovation»

Mais le risque d’une «superintelligence» mal utilisée est réel, a-t-il reconnu. C’est «quelque chose que nous devrons peut-être affronter au cours de la prochaine décennie et cela ne laisse pas beaucoup de temps aux institutions du monde pour s’adapter.»

«Nous faisons la même chose pour le nucléaire»

Il a de nouveau proposé la création d’une «organisation internationale», qui utiliserait «la puissance de calcul et (des outils) techniques» pour créer «un cadre (...) délivrant des licences à des interfaces d’intelligence artificielle, pour en vérifier leur système de sécurité et (leur) proposer des tests à passer.»

«Ce serait une façon de traiter le risque» d’avoir des intelligences artificielles dévoyées de leur usage initial, a-t-il dit, jugeant ce risque «très sérieux». «Nous faisons la même chose pour le nucléaire», a-t-il justifié, évoquant l’exemple de l’Agence internationale de l’énergie atomique (AIEA).

Israël pourrait devenir un acteur mondial majeur de l’IA

Lors d’une rencontre avec le président israélien Isaac Herzog plus tôt dans la journée, M. Altman a souligné «l’importance et l’urgence de trouver les moyens de limiter ces risques considérables». «Tout le monde veut trouver une solution», a-t-il affirmé. Le Premier ministre israélien Benjamin Netanyahu a indiqué de son côté que M. Altman lui a dit, lors d’un entretien téléphonique, qu’Israël «pourrait devenir un acteur mondial majeur dans le domaine» de l’IA.

Dans un communiqué, M. Netanyahu a estimé que son pays – où le secteur des hautes technologies est déjà un poids lourd de l’économie – , doit «élaborer une politique nationale» en matière d’IA. La visite en Israël de M. Altman s’inscrit dans le cadre d’une tournée internationale visant à rassurer sur l’usage d’OpenAI par le grand public et les entreprises.

Les IA génératives d’OpenAI, ChatGPT pour le texte et Dall-E pour l’image, ouvertes au grand public fin 2022 avec un succès fulgurant et dans un vide juridique, ont déclenché une avalanche de craintes, notamment en ce qui concerne la désinformation et l’éventuelle destruction d’emplois.

(AFP)

Ton opinion

2 commentaires