Face à la pression de la concurrence et des investisseurs de l’entreprise, Google prévoit d’ajouter des fonctionnalités d’intelligence artificielle conversationnelle dans son moteur de recherche phare.
Les chatbots ne sont pas une menace pour la recherche Google
C’est du moins ce que pense le PDG de Google qui affirme que les progrès de l’IA augmenteraient au contraire la capacité de Google à répondre à un plus large éventail de requêtes sur son moteur. Avec une activité de recherche qui représente plus de la moitié des revenus de sa société mère Alphabet, Google marche sur des œufs.
L’entreprise travaille depuis longtemps sur les modèles de langue de grande taille (LLM). Il s’agit de modèles de traitement de langage naturel qui utilisent un nombre important de données textuelles pour apprendre à prédire les mots et phrases suivantes dans un texte donné.
C’est exactement ce que propose OpenAI avec ChatGPT et Microsoft avec le nouveau Bing. Mais Google ne s’était pour l’instant pas décidé à intégrer cette technologie pour influencer la façon dont les gens utilisent son outil de recherche, ce qui va prochainement changer selon Sundar Pichai :
« L’espace d’opportunités, le cas échéant, est plus grand qu’avant […] Les gens pourront-ils poser des questions à Google et interagir avec les LLM dans le contexte de la recherche ? Absolument. »
Google a beau utiliser l’intelligence artificielle depuis des années pour comprendre les requêtes complexes faites par les utilisateurs sur les moteurs de recherche, l’arrivée de ChatGPT en novembre dernier a soufflé un petit vent de panique dans l’entreprise.
Une pression d’autant plus prononcée que Microsoft a investi massivement dans OpenAI et intègre déjà le modèle GPT dans plusieurs de ses produits. Le PDG de Microsoft, Satya Nadella, n’a pas hésité à affirmer qu’une « nouvelle course commence avec une toute nouvelle technologie ».
Microsoft s’attend à générer 2 milliards de dollars de revenus pour chaque pourcentage de part de marché gagné sur la recherche. Google détient à ce jour plus de 90 % de cette part de marché. L’enjeu est donc colossal pour l’entreprise de Mountain View.
Une expérience de recherche bouleversée ?
Depuis une vingtaine d’années, la recherche Google est basée sur des liens qui s’affichent et sur lesquels les utilisateurs peuvent cliquer pour obtenir plus d’informations. Selon Sundar Pichai, Google teste plusieurs produits de recherche pour permettre aux utilisateurs de poser des questions complémentaires à leurs requêtes initiales. Google intègre déjà des fonctionnalités liées à l’IA dans certains de ses produits, comme Gmail qui pourrait bientôt écrire des e-mails à votre place.
Google s’est toujours montré prudent quand il était question de modifier la façon dont les utilisateurs interagissent avec son moteur de recherche. Et pour cause, les publicités liées à la recherche rapportent 162 milliards de dollars par an à l’entreprise. Cela en fait de loin sa source de revenus la plus importante de la société.
En mars dernier, Google a lancé timidement Bard, son alternative à ChatGPT. Contrairement au nouveau Bing, Bard n’est accessible qu’en passant par une liste d’attente et disponible uniquement via un site dédié. En bas de l’interface, on retrouve un bouton virtuel qui redirige les utilisateurs du chatbot vers des résultats de recherche Google afin d’obtenir plus d’informations.
Sundar Pichai ne cache pas que Google voulait prendre son temps pour trouver la bonne manière d’intégrer l’IA à son moteur de recherche, mais que la concurrence pousse l’entreprise à accélérer :
« Nous itérions pour lancer quelque chose, et peut-être que les délais ont changé, compte tenu du moment dans l’industrie. »
Il a par ailleurs déclaré que Google Brain et DeepMind, les deux principales divisions travaillant sur l’IA dans l’entreprise, allaient collaborer plus étroitement pour créer de meilleurs algorithmes. Pour le PDG de Google, les modèles d’intelligence artificielle deviendront plus utiles en permettant aux entreprises de construire leurs propres modèles ou aux utilisateurs d’exécuter des algorithmes sur leurs appareils personnels.
Source : The Wall Street Journal