Temps de lecture estimé : 2 minutes
Les IA sont-elles dotées d’émotions ?
La persévérance des ingénieur·es aura-t-elle raison de l’espèce humaine ? Nos ordinateurs vont-ils prendre le dessus sur nous ? Questions légitimes après les récentes allégations d’un employé de Google, persuadé qu’une intelligence artificielle sur – avec ? – laquelle il travaillait était dotée de sentiments. Pas d’inquiétude selon les spécialistes comme Aurélie Jean, les algorithmes, aussi sophistiqués soient-ils, n’ont pas encore accédé à la conscience.
« Siri, est-ce que tu m’aimes ? » Quand bien même la commande vocale de votre iPhone vous répondrait « oui », ne vous y trompez pas. Cette apparente conversation n’en est pas une. Siri, Alexa et toutes les autres intelligences artificielles (IA) de notre connaissance ne sont pas dotées de conscience. Notre monde n’a pas encore basculé dans la science-fiction malgré les récentes déclarations de Blake Lemoine. Cet ingénieur de Google déclarait, il y a peu, que l’IA sur laquelle il travaillait pour le géant du net avait acquis une forme de conscience et développerait même… des émotions. Faribole, répond son employeur avant de le congédier. Un avis que partage Aurélie Jean, scientifique numéricienne, spécialiste des algorithmes.
C’est la nouvelle qui intrigue : un ingénieur de Google vient d’être suspendu pour avoir révélé au grand public l’existence d’une intelligence artificielle consciente de son existence. Il s’agit du chatbot LaMDA (pour Language Model for Dialogue Applications en anglais) conçu par les équipes de Google qui aurait démontré une acuité cognitive par ses échanges avec l’ingénieur en question. On se demande ce qui est le plus scandaleux, voir un employé se faire congédier pour divulgation d’informations confidentielles ou le contenu de la déclaration elle-même. Car au risque de contrarier les futurologues fantasmagoriques, les algorithmes n’ont aucune conscience.
L’intelligence artificielle fonctionne sur des algorithmes construits et exécutés sur des données. Ces algorithmes maîtrisent donc l’intelligence analytique uniquement. La machine résout de manière analytique des problèmes qui pour beaucoup – a priori – ne le sont pas : comme la reconnaissance d’un chien sur une photo. Les autres intelligences – telles que les intelligences créatives et pratiques selon la théorie triarchique de Robert Sternberg – peuvent éventuellement être simulées mais ne sont pas maîtrisées. Par exemple, quand un chatbot vous dit « je t’aime », il ne maîtrise pas ces termes qui ne sont ici que des objets mathématiques. En d’autres termes, il ne ressent pas ce qu’il dit.
Le passage à l’intelligence complète, dit aussi générale, constitue la théorie de la singularité technologique qui suppose dans un futur plus ou moins proche l’existence d’un point de basculement qui implique de facto chez ces intelligences artificielles d’avoir la conscience d’exister. Même si cette théorie est hypothétique et propre aux récits de science-fiction, elle mérite néanmoins des recherches. Par ces travaux on va chercher à comprendre ce qu’est une émotion, voire ce qu’est la conscience.
[…]
Retrouvez l’intégralité de l’article sur le site du journal Le Point