N'anthropomorphisez plus l'IA pour mieux la comprendre.
Dans notre ère numérique, l'IA générative est omniprésente, suscitant autant d'émerveillement que d'interrogations. Mais, comprenons-nous vraiment l'IA ? Ou bien tombons-nous dans le piège de l'anthropomorphisme, attribuant des qualités humaines à des entités numériques ?
Dans cet article, nous plongeons dans les méandres de l'IA, dépassant les idées reçues pour explorer sa nature véritable. Nous démystifions le lien entre le langage et l'esprit rationnel, illustré par des modèles comme ChatGPT, et questionnons les implications de les percevoir à travers le prisme de l'humanité.
Il s'adresse aux professionnels et passionnés d'IA qui cherchent à réfléchir sur ces technologies révolutionnaires.
Rejoignez-nous dans cette exploration de l'intelligence artificielle, où nous cherchons à distinguer la réalité de la fiction, pour mieux appréhender l'avenir de l'IA.
Auteur : Thierry P. Gaillard
IA vs Humanité : comprendre les limites.
Dans un monde en évolution rapide, la distinction entre l'intelligence artificielle et l'humanité devient un sujet de plus en plus pertinent. Raphaël Millière, professeur assistant en philosophie de l'intelligence artificielle à l'université Macquarie, et Charles Rathkopf, chercheur associé à l'institut du cerveau et du comportement au centre de recherche de Jülich en Allemagne, nous proposent une réflexion profonde sur les raisons qui doivent nous amener à nous demander pourquoi il est important de se rappeler que l'IA n'est pas humaine.
Bouleversement philosophique du langage.
ChatGPT et d'autres modèles linguistiques suscitent une fascination et une inquiétude considérables dans la communauté scientifique. Leur capacité à produire du langage avec une flexibilité semblable à celle d'un enfant en bas âge bouleverse notre compréhension traditionnelle du lien entre le langage et l'esprit rationnel. Cela soulève une question philosophique troublante : assistons-nous à la séparation de ce lien ou à la création d'un nouveau type d'esprit ?
Le piège de l'anthropomorphisme dans l'IA.
L'interaction avec des modèles de langage tels que ChatGPT donne souvent l'impression de dialoguer avec un autre être rationnel. Cependant, cette impression peut être trompeuse. La linguistique cognitive nous avertit des dangers de l'anthropomorphisme, notamment en ce qui concerne la compréhension des intentions derrière les mots. Dans un monde où chaque locuteur a des intentions, notre mécanisme de déduction de ces intentions est utile. Mais dans un monde peuplé de modèles linguistiques, il peut induire en erreur.
Dangers de l'anthropomorphisme et de l'anthropocentrisme dans l'IA.
L'anthropomorphisme pose un réel danger, en particulier lorsqu'il s'agit d'attribuer des qualités humaines à des modèles d'IA. Par exemple, lorsque le modèle linguistique LaMDA de Google a prétendu éprouver un désir de liberté, ses propos furent pris au sérieux par certains, malgré l'évidence que les chatbots peuvent être aussi trompeurs en parlant d'eux-mêmes que lorsqu'ils parlent d'autres sujets.
L'anthropocentrisme, l'idée que l'esprit humain est l'étalon-or pour mesurer tous les phénomènes psychologiques, est également trompeur. Cette approche peut conduire à sous-estimer les capacités des modèles de langage, notamment leur aptitude à créer des résumés et à traiter l'information de manière innovante et profonde.
Utiliser la science et les hypothèses pour comprendre l'IA.
Il est crucial d'adopter une science axée sur l'hypothèse pour comprendre véritablement les mécanismes internes des modèles de langage. Ces modèles fonctionnent dans des espaces vectoriels à haute dimensionnalité, difficiles à interpréter. Bien que des progrès aient été réalisés pour extraire et comprendre ces informations, beaucoup reste à expliquer.
Conclusions.
Pour progresser dans notre compréhension des modèles de langage et de l'IA en général, il est essentiel de résister à la tentation de les anthropomorphiser ou de les juger uniquement à l'aune de l'esprit humain. Comme le montre la recherche en cognition animale, une approche ouverte et curieuse peut mener à des découvertes significatives. En acceptant que les modèles de langage n'ont pas d'esprit au sens humain du terme, nous pouvons aborder leur étude avec une perspective plus objective et plus éclairée.
Sources.
- Vox.com - Why it’s important to remember that AI isn’t human - Article de Raphaël Millière et Charles Rathkopf - Publié en ligne le 23 novembre 2023.
- Médium.com - Is LaMDA Sentient ? - Recueil de ses échanges avec Blake Lemoine - Publié en ligne le 11 juin 2022.