42 shaares
Margaret Mitchell répond aux objections de ceux qui aiment les LLMs et que ça débecte qu'on désigne ces systèmes comme des "perroquets stochastiques", terme qu'elle et d'autres ont proposé dans le célèbre article On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? (mars 2021).
Au passage, elle signale plusieurs mécanismes qui entretiennent l'illusion d'intelligence autour des LLMs :
- l'association forte, dans nos sociétés, entre "capacité à écrire / parler" et "intelligence" :
- Elle rappelle que les personnes sourdes (/ muettes) sont souvent perçues comme déficientes intellectuellement, encore aujourd'hui
- alors que la génération d'images a progressé en même temps que la génération de textes, ce sont surtout les modèles de langue qui sont décrits et perçus comme"intelligents"
- les métaphores employées pour décrire ces systèmes (intelligence, raisonnement, compréhension, attention) renvoient à l'idée de cognition et fabriquent l'illusion d'intelligence. Les métaphores sont utiles et aident à comprendre le fonctionnement des algorithmes, mais dans ce cas elles participent à entretenir l'illusion d'intelligence. D'où la nécessité de proposer d'autres termes, plus précis, colle celui de "perroquet stochastique".
Margaret Mitchell rappelle aussi que tous les systèmes d'IA ne sont pas des LLMs, et que "perroquet stochastique" désigne uniquement les LLMs.