Le chatbot ChatGPT, capable de répondre à des questions et de générer des textes grâce à l’intelligence artificielle, est depuis des semaines le sujet de conversation dans le monde de la tech. « Mais en termes de techniques sous-jacentes, ChatGPT n’est pas très innovant », a déclaré Yann LeCun, scientifique en chef de l’IA chez Meta, dans Une conversation avec les médias américains.
Il reconnaît que le chatbot est « bien fait » et « bien conçu » par la société américaine OpenAI. ChatGPT est en ligne depuis fin novembre et compte déjà des millions d’utilisateurs, y compris des étudiants qui l’utilisent pour générer des textes pour leurs devoirs scolaires.
Meta l’a aussi
Le chef de l’IA de Meta souligne que ChatGPT n’est pas unique. Plusieurs entreprises technologiques ont des systèmes d’IA similaires qui ont été formés avec des quantités massives de textes publics. Selon LeCun, OpenAI n’a fait aucun progrès réel par rapport aux principaux modèles de langage d’IA qui existaient déjà. « Non seulement Google et Meta, mais aussi toutes sortes de startups ont une technologie très similaire. »
ChatGPT et le modèle de langage d’IA sous-jacent GPT-3 s’appuient sur ce que d’autres parties ont développé ces dernières années. Le réseau de neurones auto-apprenant qui est à la base de GPT-3, entre autres, a déjà été révélé par Google en 2017. Et les premiers modèles de langage avec des réseaux de neurones remontent à 20 ans.
« Pas de vrais leaders dans la course à l’IA »
OpenAI a utilisé la méthode de « l’apprentissage par renforcement par rétroaction humaine » pour former ChatGPT. De plus, les employés fournissent des commentaires pour aider le système à générer des réponses dont les gens sont satisfaits. OpenAI a engagé des travailleurs temporaires peu rémunérés au Kenya, entre autres, pour le travail d’évaluation. signalé TIME magazine récemment.
La technologie de la méthode de formation a été précédemment développée par la branche DeepMind de Google. « Ces types de systèmes ne sortent pas de nulle part, ils sont le résultat de décennies de contributions de différentes personnes. Aucun parti de l’IA n’est actuellement vraiment en avance sur la concurrence. » écrit LeCun.
« Perdre à perdre par des erreurs »
Microsoft, qui investit des milliards dans OpenAI, proposera bientôt ChatGPT aux entreprises. Le fabricant de Windows intégrerait également des fonctions ChatGPT dans son moteur de recherche Bing et ses applications Office. Google aimerait également ajouter prochainement un chatbot IA à son moteur de recherche.
Meta est prudent avec cela et ne propose pas encore un tel chatbot pour les utilisateurs de Facebook et Instagram, déclare LeCun. « Meta a beaucoup à perdre s’il propose des systèmes qui peuvent simplement inventer des choses. » Ce faisant, il souligne les dangers des chatbots, tels que la diffusion d’informations erronées et la propagande.
Mais selon le PDG, Meta proposera bientôt des outils d’IA aux petites entreprises pour les aider à se promouvoir via les réseaux sociaux. « Non seulement pour la génération de texte, mais aussi pour d’autres créations, telles que des images numériques pour des publicités. »
Attentes d’humeur
OpenAI lui-même a également tenté à plusieurs reprises de tempérer le battage médiatique entourant les systèmes d’IA de l’entreprise. Dans la Silicon Valley et le monde de l’IA, les attentes concernant le successeur, GPT-4, sont beaucoup trop élevées, selon le PDG d’OpenAI, Sam Altman. « Les rumeurs sont ridicules. Les gens demandent à être déçus et bientôt ils le seront. Nous n’avons pas encore une véritable ‘intelligence générale artificielle’, comme on s’attend à ce que nous en soyons désormais. »
Dans « l’intelligence générale artificielle », les logiciels d’IA ont des capacités intellectuelles similaires à celles des humains. « Il est difficile de dire quand cela arrivera. Ce sera plutôt une transition progressive », pense Altman.
« On ne peut pas faire confiance aux chatbots »
L’émergence de ces types de systèmes d’IA a suscité des inquiétudes concernant les pertes d’emplois et les poursuites pour violation du droit d’auteur. Les IA sont formées avec d’énormes quantités de données collectées via Internet, généralement sans que les créateurs de textes et d’images n’aient donné leur autorisation.
Certains experts remettent en question l’efficacité et la productivité des modèles de langage d’IA, car les entreprises doivent faire examiner attentivement tous les résultats par des humains. S’ils ne le font pas, cela peut entraîner des dommages importants et des poursuites judiciaires, avertir le professeur d’économie Gary N Smith et le consultant en technologie Jeffrey Funk. « La valeur économique de la recherche sur l’IA réside dans la mesure dans laquelle elle nous permet de produire plus de biens et de services. Jusqu’à présent, ce n’est pas beaucoup. »