“Bloquée pendant des années”, l’IA était un danger pour Google

Une IA de type ChatGPT était dans les cartons chez Google depuis quelques années.

Nous vous proposons cette excellente contribution de

  • Google disposait d’une IA de type ChatGPT depuis plusieurs années
  • Le géant de la Tech a refusé de la sortir et de la montrer au public
  • L’entreprise avait de bonnes raisons pour garder sa technologie confidentielle

LaMDA, pour Language Model for Dialogue Applications est un modèle de langage qui n’a pas grand-chose à envier à ChatGPT. Cette IA capable de discuter politique ou philosophie avec ses utilisateurs, de blaguer sur tout type de sujets ou d’inventer des jeux de mots, est une création des équipes de recherche de Google. Prête il y a plus de deux ans, elle n’a jamais fait l’objet d’une démonstration publique et encore moins d’une sortie.

Selon une enquête du Wall Street Journal, cette décision de la direction a suscité l’agacement de ses concepteurs, les chercheurs Daniel De Freitas et Noam Shazeer. Les deux hommes souhaitaient notamment que cette technologie serve pour les recherches en ligne, ou pour améliorer l’assistant personnel de Google.

Google n’a pas voulu se précipiter

Las, ils ont fini par démissionner en 2021 pour monter leur propre entreprise : Character Technologies. Leur chatbot est depuis connu pour permettre des conversations fictives avec des personnalités célèbres décédées, mais aussi pour des fonctionnalités de psychologies.

Reste une question de taille : pourquoi Google a-t-il refusé de sortir son chatbot alors qu’il aurait pu prendre une avance considérable sur des sociétés comme OpenAI avec ChatGPT et son rival Microsoft ?

Les dirigeants expliquaient à l’époque que cette IA ne répondait pas aux normes éthiques et de sécurité de l’entreprise. Sundar Pichai s’est en effet engagé il y a quelques années sur 7 principes guidant le travail de l’entreprise sur ce type d’outil afin d’éviter la diffusion de technologies biaisées.

Autre facteur qui a joué : le produit n’était pas assez fiable pour être lancé. C’est en tout cas le point de vue exprimé par un porte-parole de Google qui précise qu’il y a une vraie différence entre prototype de recherche et un produit utilisable à grande échelle.

En clair, Google est en position de force sur le marché de la recherche en ligne, et contrairement à des sociétés comme Microsoft avec Bing, et encore moins avec OpenAI, il n’est pas enclin à prendre des risques inconsidérés.

Quoi qu’il ne soit, et face à l’empressement de ses rivaux, Google n’a pas eu d’autre choix que d’accélérer en présentant son IA Bard en février dernier à Paris. Alors qu’il y a eu un couac et que l’IA a commis une erreur, son action s’est effondré en Bourse.

Quand l’IA avoue son ignorance

Loin de se laisser abattre, la firme de Mountain View continue de travailler dur en interne sur son outil. L’objectif est de lutter contre un problème classique de ces modèles de langage génératif. Lorsqu’ils ne connaissent pas la réponse à une question : ils l’inventent ! À grande échelle, cela pose un vrai soucis.

Mais justement, Google aurait trouvé une solution. L’idée est de pousser l’IA à avouer son ignorance, quitte à frustrer un peu l’utilisateur.

Voir aussi

Copy link
Powered by Social Snap