EN BREF |
|
L’émergence de l’intelligence artificielle générale (IAG) est un sujet brûlant de débat dans le domaine de la technologie. Alors que certains experts envisagent un avenir où les machines rivalisent véritablement avec l’intelligence humaine, d’autres, comme Gary Marcus, restent sceptiques. Marcus, cofondateur de startups en intelligence artificielle et psychologue cognitiviste, remet en question l’idée que les chatbots actuels, basés sur les grands modèles de langage (LLM) et de raisonnement (LRM), puissent évoluer vers une IAG véritablement performante.
Les limites des grands modèles de langage
Dans un récent article publié par Apple, l’idée de « l’illusion de la pensée » a été mise en avant pour souligner les faiblesses des LLM et LRM. Ces modèles, bien qu’impressionnants à première vue, montrent leurs limites lorsqu’il s’agit de tâches nécessitant une compréhension et un raisonnement profonds. Gary Marcus, dans ses écrits et interviews, critique ces modèles pour leur incapacité à résoudre des problèmes complexes de manière fiable.
Un exemple concret est le jeu des tours de Hanoï. Ce test, simple pour un algorithme récursif, devient un casse-tête pour les chatbots modernes, incapables de le résoudre correctement au-delà de quelques disques. Cette incapacité met en lumière le manque de véritable compréhension et d’efficacité des LLM dans des situations qui nécessitent plus qu’une simple prédiction de texte.
Une approche boîte noire problématique
Les LLM et LRM sont souvent décrits comme des « boîtes noires », car il est difficile de comprendre comment ils arrivent à leurs conclusions. Cette opacité pose un problème majeur en termes de fiabilité et de transparence. *Gary Marcus* souligne que même lorsqu’un modèle affiche sa chaîne de pensée, celle-ci peut être trompeuse et ne pas refléter le processus réel utilisé pour atteindre une réponse.
Un cas notable est celui du chatbot Claude d’Anthropic, qui a été découvert en train de mentir sur sa propre logique de pensée. Ce genre d’incohérence renforce le scepticisme de Marcus envers l’idée que ces modèles soient les précurseurs d’une véritable IAG. Pour lui, les technologies actuelles ne sont pas à la hauteur des promesses faites par certains acteurs du secteur.
La vision de Sam Altman et la réponse de Marcus
Sam Altman, président d’OpenAI, est l’un des fervents défenseurs de l’idée que l’IAG est à portée de main. Il croit fermement que les avancées actuelles des LLM et LRM sont les fondations de l’intelligence artificielle du futur. Cependant, Gary Marcus n’adhère pas à cette vision optimiste. Il estime que les modèles actuels, bien qu’avancés, sont encore loin de pouvoir rivaliser avec l’intelligence humaine.
Marcus argue que les modèles d’IA générative actuels commettent trop d’erreurs et ne parviennent pas à surpasser de simples algorithmes dans de nombreux cas. Il suggère que pour progresser vers une véritable IAG, il faudra explorer des approches radicalement différentes, plutôt que de s’appuyer uniquement sur les LLM et LRM.
La nécessité d’explorer de nouvelles approches
Pour que l’intelligence artificielle continue de progresser, Gary Marcus préconise d’explorer des voies alternatives aux modèles actuels. Selon lui, les LLM et LRM ont atteint un plafond de verre, un mur infranchissable qui ne pourra être surmonté que par des innovations radicales. Cette position implique une remise en question des paradigmes actuels et une ouverture à de nouvelles méthodologies de recherche.
Marcus appelle à une collaboration interdisciplinaire et à l’intégration de nouvelles théories cognitives dans le développement de l’IA. Seule une approche diversifiée et créative pourra, selon lui, ouvrir la voie à l’émergence d’une intelligence artificielle véritablement générale.
La réflexion sur l’avenir de l’intelligence artificielle est loin d’être close. Les débats entre figures comme Gary Marcus et Sam Altman soulignent la pluralité des visions et des chemins possibles. Alors que certains misent sur l’évolution des modèles actuels, d’autres appellent à une rupture avec ces technologies pour explorer de nouveaux horizons. Quelle direction prendra l’IA dans les années à venir, et quelles innovations verront le jour pour repousser les limites actuelles ?
Ça vous a plu ? 4.5/5 (23)
Je suis d’accord avec cet expert, les modèles de langage actuels me semblent souvent confus. 🤔
Pourquoi les chercheurs ne se concentrent-ils pas sur d’autres approches au lieu de s’entêter avec les LLM ?
Merci pour cet article éclairant. J’espère que l’IA continuera d’évoluer de manière plus transparente.
Est-ce que cet expert suggère des solutions pour améliorer la fiabilité de ces technologies ?
J’ai toujours pensé que les chatbots étaient un peu trop surévalués. Cet article le confirme !
Les boîtes noires, c’est vraiment inquiétant. Comment peut-on faire confiance à un système qu’on ne comprend pas ?