JaponUne IA canine a un mal de chien à donner des bonnes réponses
Un robot de conversation chargé d’informer les personnes âgées est devenu la risée des internautes japonais.
Un chatbot canin mû par une intelligence artificielle, chargé d’informer les personnes âgées à Osaka (ouest du Japon), est devenu la risée des internautes japonais qui s’amusent de son mal de chien à donner des réponses justes aux questions qu’on lui pose. «Dai-chan», un agent conversationnel assisté par une IA mis en service cette année, est présenté par le département d’Osaka comme le premier de son genre, dans un pays où 10% de la population est âgée de 80 ans ou plus.
Mais le chatbot représenté par un shiba inu - une race de chien originaire du Japon - capable de répondre aux questions dans le dialecte d’Osaka, rencontre quelques problèmes avec la réalité. Interrogé sur l’exposition universelle d’Osaka prévue en 2025, il répond qu’elle est annulée, ce qui est faux, même si l’organisation de l’événement fait face à des difficultés, notamment des retards dans les travaux.
Si on lui demande à quelle date doit se tenir le sommet des ministres des Affaires étrangères du G7 – organisé à Tokyo les 7 et 8 novembre -, il répond sans hésiter que la réunion se tiendra le 4.
Et lorsqu’un journaliste de l’AFP l’interroge au sujet des Jeux olympiques à Sapporo, auxquels cette ville du nord du Japon a officiellement renoncé, il répond qu’ils ont seulement été reportés et qu’il a hâte que l’événement se tienne. Relayées par les internautes japonais et certains médias locaux, les réponses de Dai-chan provoquent l’hilarité sur les réseaux sociaux.
Les autorités n’en démordent pas
Les autorités locales le défendent toutefois, déclarant à l’AFP que son rôle est d’étendre les opportunités de communication des personnes âgées, «et non de donner des réponses correctes à chaque fois». «Les utilisateurs semblent apprécier Dai-chan tout en comprenant les limites de l’IA générative», ajoute un fonctionnaire du département chargé du projet. Sondé sur cette mise en cause, le chatbot a convenu qu’il faisait des erreurs: «mais c’est un peu dur que les gens en parlent. Il faut se tromper pour apprendre, non?»