IA : le patron de Google pointe les erreurs « inacceptables » de son application Gemini

intelligence

Le PDG de Google, Sundar Pichai, a dénoncé les erreurs "totalement inacceptables" de son application d'intelligence artificielle Gemini dans une lettre à ses équipes, alors que la génération d'images historiquement inexactes a mené à la suspension jeudi de la création d'images de personnes.

La controverse est apparue quelques semaines après que Google a annoncé le changement de nom de Bard, son IA générative, en "Gemini", concurrent du ChatGPT d'OpenAI soutenu par Microsoft. Sur les réseaux sociaux, des utilisateurs ont pointé certaines créations inexactes, notamment en matière de genre et d'origine, semblant sous-représenter les personnes blanches. Une requête sur un soldat allemand de 1943 a par exemple donné lieu à des images de militaires asiatiques ou à la peau noire. "Je souhaite évoquer les dernières difficultés liées à la génération de (contenus) problématiques dans l'application Gemini", a écrit M. Pichai mardi, dans une lettre publiée par le site d'information Semafor, authentifiée par un porte-parole de Google auprès de l'AFP.  "Je sais que certaines de ses réponses étaient biaisées et ont choqué nos utilisateurs. Et, pour être clair, c'est totalement inacceptable et nous nous sommes trompés."

 Sundar Pichai a indiqué que les équipes de Google travaillaient "24 heures sur 24" pour résoudre ces problèmes mais n'a pas précisé quand la génération d'images de personnes serait à nouveau disponible. "Aucune IA n'est parfaite, surtout au stade émergent où se trouve cette industrie, mais nous avons conscience que la barre est haute et nous continuerons à travailler aussi longtemps qu'il le faudra", a-t-il écrit. Google a d'ailleurs déclaré la semaine dernière que les générations problématiques de Gemini étaient dues à ses efforts pour tenter d'éliminer ces préjugés.

À lire aussi

Filtrer par