Temps de lecture estimé : 5 minutes
C’est qui le patron ?
Jusqu’où peut-on faire confiance aux machines en matière de décisions, prévisions, surveillance, etc., domaines autrefois réservés aux humains ?
Elon Musk, le physicien Stephen Hawking ou encore Bill Gates, qu’on peut difficilement taxer de technophobie, ont fait chorus dernièrement à propos de l’IA, s’inquiétant du pouvoir et de l’influence future des superintelligences sur les humains. La crainte des algorithmes apprenants, des IA prenant des décisions à la place de hommes fait son apparition, même dans le sérail de la Silicon Valley. « En Europe, on s’inquiète de l’impact de l’IA sur l’emploi. La convergence de multiples technologies invasives et transformatrices de secteurs fait peur. La révolution agricole avait en son temps seulement transformé le domaine agricole… », déclare Catherine Simon, fondatrice et directrice d’Innorobo, salon de robotique, soulignant une certaine culture anti-humanoïde héritée des légendes du Golem sur le Vieux Continent. Au-delà de la crainte du chômage technologique, c’est bien la peur d’être concurrencé par une intelligence non humaine qui alimente le débat. Fantasmes erronés de Cassandre contemporains ? Nullement. D’après les calculs d’Angèle Christin, maître de conférences au département de communication de Stanford, plus d’une soixantaine d’algorithmes prédictifs seraient employés aujourd’hui dans les différents États du pays par la justice américaine. Sont-ils dignes de confiance ?
Toujours des doutes sur l’impartialité
Ces « outils d’évaluation du risque » sont principalement utilisés pour estimer le risque de récidive des détenus et décider ou non de leur libération conditionnelle. Mais ils sont controversés car, bien qu’utilisés pour réduire les risques de discrimination, ils sont soupçonnés justement de reproduire certains biais humains… Les personnes de couleur noire ont deux fois plus de chances d’être labellisées personnes à haut risque par l’outil Compas… Est-ce à dire que les stéréotypes des programmateurs entrent aussi en jeu ? Car les algorithmes n’ont pas d’intention en eux-mêmes, comme le rappelle Serge Abiteboul, informaticien de l’ENS et directeur de recherche à l’Institut national de recherche en informatique et en automatique (Inria) (cf. Prospective). Comme l’a révélé jadis le mathématicien perse Muhammas Ibn Musa Al-Khwarizmi, ils ne sont que de simples séries d’instructions, qu’une méthode pour résoudre un problème. « Lorsqu’on fait une addition, nous utilisons l’algorithme qui fait commencer par les unités, puis les dizaines et les centaines », illustre Gilles Dowek, chercheur à l’Inria, rompant avec les fantasmes. Et pourtant les débats houleux à l’Assemblée nationale lors du projet de loi sur le renseignement, parce que l’algorithme du gouvernement allait scanner les mails et s’auto-paramétrer, en fixant la liste des mots dangereux à partir de son expérience de messages de criminels, démontrent que la machine, dès qu’elle commence à faire preuve d’autonomie, suscite les pires angoisses.
Les algorithmes apprenants changent la donne
En France la start-up Predictice, fondée en janvier 2016, a numérisé près de 2,5 millions de décisions de la Cour de cassation, et utilise la puissance du Big Data pour calculer les probabilités de résolution de litiges, afin de rendre le système juridique plus transparent et prévisible. Au risque de dresser un palmarès des bons ou des mauvais tribunaux, comme on classe déjà les lycées ou les hôpitaux. Le champ des possibles semble désormais infini – qu’il soit positif avec une IA capable de diagnostiquer des cancers en quelques minutes, de matérialiser 36000 heures de travail d’un avocat en une seconde, de diminuer la facture d’électricité de Google de 40% – ou inquiétant : à Chicago, « grâce au traitement des données collectées, des appels téléphoniques et témoignages des personnes, nous définissons des micro-zones où nous pouvons prendre des décisions éclairées grâce aux algorithmes, quant à la présence policière par exemple », illustre Brett Goldstein, le Chief Data Officer de la ville qui cherche à anticiper l’acte malveillant. Grâce à ces programmes de nombreux phénomènes du monde, réduits à des données, ont pu être toujours mieux expliqués, étudiés, comparés comme l’ingénierie ou la science, mais aussi la santé, les loisirs, la justice et autres domaines des sciences humaines et sociales. Mais les algorithmes apprenants changent vraiment la donne. « Le bébé écoute les gens parler, répète, puis petit à petit comprend les règles de syntaxe et de grammaire. Ceux-ci font de même : on ne programme plus des règles en amont ; ils tâtonnent, s’essaient sur des données, pour découvrir par eux-mêmes comme le bébé », décrit Stéphane Mallard, digital evangelist chez Société Générale et conférencier, qui cite pour illustrer son propos les nouvelles manières qu’ont choisies ces IA pour jouer à Super Mario. « Elles battent tous les records en faisant sauter le personnage dans tous les sens, de manière contre-intuitive, parce qu’elles ont déterminé par expérience que c’était l’attitude la plus efficace. Et demain ces programmes apprendront à diriger une voiture dans la ville, à reconnaître des cellules cancéreuses, des visages sur des photos… » Watson, l’IA d’IBM, concocte de nouvelles molécules et pose des diagnostics en lisant des études. Pour Marc Zuckerberg, il y a là le potentiel pour guérir toutes les maladies avant la fin du siècle…
Risque de dérive déshumanisante
Et si, plus que des suppléants, les machines devenaient les remplaçants des humains ? Si l’arbitre de football, qui commence à être aidé par la vidéo, venait à disparaître au profit d’une IA ? Beaucoup de tâches humaines, qui existaient pour pallier le manque d’information, sont menacées. Sans retour en arrière possible, en raison de l’efficience de la machine. Quel médecin se passerait des renseignements fournis par les algorithmes, quel urbaniste, quel ingénieur, quel commerçant… ? Pour autant que le numérique choisisse, juge, décide pour nous, puisse même gouverner, nous voilà dépossédés de nos droits et de nos facultés. Ne serait-ce pas un monde d’optimisation, de fluidification, de sécurisation extrême qui se préparerait sous l’influence de ces IA ? Et pourtant il n’est pas certain qu’il fasse bon vivre dans un tel monde, « qui pourrait être déshumanisé si nous ne nous posons pas les bonnes questions », avertit Catherine Simon, fondatrice et directrice d’Innorobo, salon de robotique. Les machines paramétrées ne tiennent pas compte du contexte, une IA peut devenir raciste à force d’observer de tels propos sur le Net. Une étude de l’université d’Harvard montre que lorsqu’on saisit un nom à consonance afro-américaine, il y a des chances de voir apparaître, dans les premiers résultats, des sites qui proposent de consulter son casier judiciaire. Un phénomène qui serait dû aux habitudes de navigation des internautes. « Ce qui me dérange est que l’industrie du numérique s’est arrogé un pouvoir de « gouvernementalité » – au sens où l’entendait Michel Foucault comme la faculté de certaines personnes à agir sur le cours de l’existence d’autres personnes », pointe le philosophe Eric Sadin. Ainsi Edward Snowden a révélé l’existence d’un algorithme qui décide si on est ou non citoyen américain : si on ne l’est pas, on peut être surveillé sans mandat !
Débats pour préparer une nouvelle société
Les décisions prises à partir de calculs algorithmiques, qui touchent à la démocratie, doivent être étroitement encadrées. « Souhaitons-nous que les libérations anticipées dépendent d’une machine ? Si on le fait, c’est la porte ouverte à un monde déshumanisé, si on ne le fait pas, on laisse une marge d’erreur dommageable pour la société », campe Henri Verdier, « Chief Data Officer » de la France. Comme pour la bioéthique, il importe de sortir de la simple efficience et de s’inscrire dans le projet collectif. « On ne demande pas seulement à l’Etat d’être efficace ; celui-ci a aussi un rôle à jouer dans le bien-être, la dignité des personnes, le vivre-ensemble… », ajoute Henri Verdier. Bruno Maisonnier, ingénieur informaticien, ancien fondateur de la société Aldebaran, qui développe des robots humanoïdes comme Nao, Pepper ou Romeo, désormais créateur de la société d’IA Anotherbrain, rappelle que « le monde de l’IA et des robots sera synonyme de transformation possible de l’organisation de la société ». « La peur de la perte d’emploi ou d’une intelligence supérieure sont légitimes, mais il nous faut adopter une vision plus large, sur le futur que nous voulons avec les machines. Le fait qu’elles prennent 50% des emplois est peut-être une bonne nouvelle s’il y a redistribution et si les gens peuvent occuper leur temps, leur énergie et leur développement personnel à autre chose », soutient Catherine Simon, évoquant une société à réinventer. « Depuis 10000 ans le travail était au cœur de notre rôle social et de nos vies. Cela ne sera plus le cas », avertit Bruno Maisonnier.
Bon sens et garde-fous
« Et si, avant de souscrire à cette vision pessimiste d’asservissement, de restriction de la liberté, de perte de la dignité humaine, nous examinions la situation d’un peu plus près ? Après tout, les algorithmes sont des créations de l’esprit humain. Ils sont ce que nous avons voulu qu’ils soient », insiste Serge Abiteboul, selon qui mieux connaître ces outils permettra de ne pas y être assujetti et de prendre les bonnes décisions. Le périmètre que nous leur laisserons dépendra de notre rapport aux technologies. « Je ne veux pas d’un robot américain qui me rend service tout en récoltant des données sur moi afin de mieux me vendre des choses, d’un robot chinois ou japonais trop mécanique et pas assez porté sur l’interaction avec l’humain », caricature Bruno Maisonnier, qui précise que « nous attendons que les machines se comportent mieux que le humains ». Optimiste prudent, partisan d’une éducation plus poussée aux nouvelles technologies, Serge Abiteboul concède que les possibilités considérables offertes s’accompagnent de risques, qu’on s’habituera à maîtriser, comme à l’époque de la naissance de la machine à vapeur ou de l’électricité… « Nous règlementerons les décisions de justice s’appuyant sur l’IA, comme nous l’avons fait avec l’arrivée des caméras et des images dans les tribunaux », assure Bruno Maisonnier. En période de bouleversement, les débordements peuvent survenir, à l’exemple de cette IA polémique développée à Stanford, soi-disant à même de déterminer l’orientation sexuelle des gens en analysant leur visage. Pour l’heure, la raison prime. Les algorithmes aident les juges dans des conditions très particulières, simples et circonscrites (conseils lors des libérations sous conditions). « Ceux-ci utilisent depuis des années, soit dit en passant, des moteurs de recherche pour retrouver des cas de jurisprudence », précise Serge Abiteboul.
Prospective
Nos pensées mises à nu ?
Dernièrement des chercheurs de Stanford ont créé un implant crânien qui permet à des personnes paralysées d’écrire huit mots par minute. Facebook vise la vitesse de 100 mots par minute « d’ici quelques années ». Plus de 60 scientifiques et ingénieurs travaillent à inventer des capteurs non invasifs sur un casque ou un bandeau, au sein de Building 8, le nouveau labo de l’entreprise, entouré d’une culture du secret digne de celle qui entoure Google X poursuivant le même but. Les GAFA sont de la partie, pour à terme supprimer les écrans. Les assistants vocaux ont fait leur apparition, et les énergies sont désormais tournées vers l’élaboration de la commande par la pensée. Dès lors, la crainte qu’on puisse lire, détourner, voler nos informations cérébrales devient sensée ! D’où l’appel des scientifiques Marcello Ienca, neuroéthicienne de l’université de Bâle, et de Roberto Andorno, avocat spécialisé dans les droits de l’homme de l’université de Zurich, demandant la reconnaissance de nouveaux droits au vu des avancées des neurotechnologies, afin de protéger nos pensées contre l’accès, la collecte, le partage et la manipulation des données du cerveau humain : premièrement le droit à la liberté cognitive, donc la possibilité d’utiliser ou de refuser la stimulation cérébrale et d’autres techniques pour modifier l’état mental ; deuxièmement le droit à la confidentialité mentale, sachant que des scientifiques ont déjà réussi à reconstituer des extraits d’un film en scannant le cerveau de participants ; troisièmement le droit à l’intégrité mentale pour anticiper les risques de « hacking », de prise de contrôle des appareils auxquels une personne est connectée ou de transmission de faux signaux vers le cerveau de l’utilisateur. Quatrièmement le droit à la continuité psychologique car de telles technologies, notamment à des fins médicales, peuvent bouleverser la façon dont une personne se perçoit, s’identifie. Il s’agit de rester la même personne !
Julien Tarby