A son tour, Facebook dévoile ses ambitions dans l’IA générative de type ChatGPT

Nous vous proposons cette excellente contribution de Les Échos

Meta ne veut pas être à la traîne dans la course à l’intelligence artificielle . Défié par Microsoft qui a investi lourdement dans ChatGPT , le groupe dirigé par Mark Zuckerberg a dévoilé sa propre version d’IA générative. Mais cette dernière est, pour l’instant, ouverte uniquement aux scientifiques.

L’objectif de cet outil baptisé LLaMA est « d’aider les chercheurs à progresser dans leurs travaux » sur ce sujet, notamment car il ne requiert pas des infrastructures très importantes pour être étudié, précise Meta dans un texte de présentation.

En novembre, le lancement du robot conversationnel ChatGPT de la start-up OpenAI a bousculé le monde de l’IA, en permettant au grand public de générer, en quelques secondes, un texte sur un thème donné ou à fournir une explication sur un sujet complexe. Depuis, tous les géants de la Tech ont réagi dans le monde occidental et en Chine, craignant de rater un virage majeur.

Le risque de la précipitation

Mais, préviennent les experts, cet outil présente aussi des risques, qu’il s’agisse d’erreurs factuelles, de parti pris ou aussi en matière de protection des données. Une version test du moteur de recherche Bing de Microsoft, développée en partenariat avec OpenAI, a ainsi rapidement émis des réponses incohérentes, le programme informatique exprimant notamment des menaces ou son désir de voler les codes nucléaires…

« Des travaux de recherche supplémentaires sont nécessaires pour traiter les risques de partialité, de commentaires toxiques et d’hallucinations », affirme Meta, la maison mère de Facebook et Instagram, qui a déjà été épinglée à plusieurs reprises dans son histoire en raison de la circulation de fake news sur ses plateformes. Aux yeux de Meta, il faut des ressources importantes, notamment en termes de puissance de calcul, pour entraîner et mieux faire fonctionner les nouveaux modèles de langage.

Plusieurs versions disponibles

A ce stade, le manque de ressource « limite la capacité des chercheurs à comprendre comment et pourquoi ces grands modèles de langage fonctionnent, ce qui entrave les efforts visant à améliorer leur robustesse et à atténuer les problèmes connus, tels que les biais, la toxicité et la possibilité de générer des informations erronées », précise l’entreprise californienne.

C’est pourquoi Meta a développé plusieurs versions de LLaMA, nécessitant plus ou moins de ressources. Alors qu’OpenAI et Microsoft limitent l’accès aux technologies faisant fonctionner leur IA, l’entreprise de Mark Zuckerberg a décidé de partager la façon dont il a élaboré LLaMA afin que les chercheurs puissent « plus facilement tester de nouvelles approches pour limiter ou éliminer » les problèmes. Un pari qui, espère Meta, sera gagnant en fin de course.

Voir aussi

Copy link
Powered by Social Snap