Facebook annonce un concurrent de ChatGPT et une équipe dédiée à l’IA générative

Nous vous proposons cette excellente contribution de Tech&Co

Face à l’engouement autour des intelligences artificielles génératives, le groupe Meta ouvre l’accès de son modèle de langage LLaMA pour faciliter les recherches dans le domaine.

Meta a dévoilé vendredi sa propre version d’intelligence artificielle (IA) pouvant générer du texte, comme ChatGPT, l’ouvrant pour l’instant aux chercheurs afin qu’ils puissent répondre aux risques posés par ces nouvelles technologies.

L’objectif de ce nouveau modèle de langage baptisé LLaMA est « d’aider les chercheurs à progresser dans leurs travaux » sur ce sujet, notamment car il ne requiert pas des infrastructures très importantes pour être étudié, précise l’entreprise dans un texte de présentation.

« Nous sommes en train de créer un nouveau groupe de produits de haut niveau chez Meta, axé sur l’IA générative, afin de dynamiser notre travail dans ce domaine », a confirmé Mark Zuckerberg, dans une publication sur Facebook lundi.

Des usages dans WhatApps ou Instagram

Le patron du groupe Meta indique notamment se focaliser sur des outils créatifs et expressifs à court terme. Mais à l’avenir, Mark Zuckerberg reconnait vouloir développement des « personnalités » d’intelligence artificielle pour venir en aide à des personnes de manière diverse.

L’objectif sera également de travailler sur des expériences autour du texte et des images. Ces projets pourraient mener à de nouvelles fonctions au sein des applications de messagerie WhatsApp et Messenger, mais aussi à la création de filtres ou de formats publicitaires sur Instagram.

Le lancement en novembre du robot conversationnel ChatGPT de la start-up OpenAI a bousculé le monde de l’IA en permettant au grand public de constater les capacités des nouveaux « modèles de langage » à générer, en quelques secondes, un texte sur un thème donné ou à fournir une explication sur un sujet complexe. Mais elles présentent aussi des risques, qu’il s’agisse d’erreurs factuelles, de parti pris ou de la protection des données.

Une version test du moteur de recherche Bing de Microsoft, développée en partenariat avec OpenAI, a ainsi rapidement émis des réponses incohérentes, le programme informatique exprimant notamment des menaces ou son désir de voler les codes nucléaires.

Comprendre les modèles de langage

« Des travaux de recherche supplémentaires sont nécessaires pour traiter les risques de partialité, de commentaires toxiques et d’hallucinations », affirme Meta, la maison mère de Facebook et Instagram.

Mais il faut des ressources importantes, notamment en termes de puissance de calcul, pour entraîner et faire fonctionner ces modèles de langage.

Cela « limite la capacité des chercheurs à comprendre comment et pourquoi ces grands modèles de langage fonctionnent, ce qui entrave les efforts visant à améliorer leur robustesse et à atténuer les problèmes connus, tels que les biais, la toxicité et la possibilité de générer des informations erronées », remarque l’entreprise. C’est pourquoi Meta a développé plusieurs versions de LLaMA, nécessitant plus ou moins de ressources.

Alors qu’OpenAI et Microsoft limitent l’accès aux technologies faisant fonctionner leur IA, l’entreprise de Mark Zuckerberg a décidé de partager la façon dont il a élaboré LLaMA afin que les chercheurs puissent « plus facilement tester de nouvelles approches pour limiter ou éliminer » les problèmes.

Pierre Monnier avec AFP

Voir aussi

Copy link
Powered by Social Snap