La justice par les robots en 2050

Et si le film Matrix n’était pas si fictif ?
Et si le film Matrix n’était pas si fictif ?

Temps de lecture estimé : 3 minutes

« Minority Report » à éviter

Et si ces systèmes de calcul qui exploitent les data pour prévoir et prévenir étaient mieux encadrés à l’avenir ?

Fiction

Journal intime de Justine, mai 2050

« J’essaie de ressentir ce qu’a dû vivre mon père en 2025, il y a 25 ans, lorsqu’il a été arrêté « par anticipation ». Messieurs, vous êtes tous suspectés par l’algorithme d’être sur le point de commettre un délit. Avouez ! » La voix robotisée et inhumaine lui a glacé le sang, comme il me l’a souvent raconté. Il a jeté un coup d’œil sur le côté à ses comparses, et ses smart glasses à reconnaissance faciale lui ont indiqué qu’ils se trouvaient dans les mêmes dispositions d’esprit que lui : ils avaient peur et ne comprenaient pas. Ces gens, citoyens lambda sans problèmes apparents, ne savaient pas vraiment pourquoi ils étaient là. Les algorithmes ont commencé à influencer notre environnement au début du siècle par de simples « recommandations ». Effectuer nos achats, choisir un film à visionner ou encore une chanson à écouter, gérer nos relations amoureuses sur des sites qui calculent le « taux de correspondance ou d’affinité », nous repérer sur la route… Tout a été plus efficace et rapide. Brassant des quantités gigantesques de données, les algorithmes ont même commencé à prévenir la propagation des épidémies, offrant aux gouvernants des outils de gestion de l’incertitude. Mon père aime à me raconter que Google, en 2017, utilisait son algorithme Google Flu Trends pour prévenir l’expansion des épidémies virales comme la grippe, grâce aux gens qui recherchaient sur le moteur la cause de leurs symptômes. Mais nous nous sommes engagés dans une nouvelle société sans nous en apercevoir. A un moment donné les mathématiques ont pris le dessus… Nous avions sans le savoir basculé dans la société de l’anticipation, mais aussi de la peur à cause de ces intelligences artificielles prédictives. Ainsi nous nous sommes aperçus qu’elles étaient devenues trop sensibles aux rumeurs. A chaque fois une nouvelle maladie occasionnait des peurs collectives, et l’algorithme gonflait ses prévisions, du fait du nombre de gens anormalement élevé qui se renseignait sans symptôme. Les autorités ont commencé à abuser de ces Cassandre artificiels, ce qui inévitablement s’est accompagné de restrictions de libertés. L’idée à la base était que beaucoup d’infractions, comme des cambriolages ou le racket, ne se commettaient pas au hasard, mais suivaient des schémas particuliers. En pratique, l’algorithme s’appuyait sur une base de données rassemblant l’historique, la géolocalisation et les heures des crimes. En prenant en compte le trafic routier, les horaires de sortie d’école ou la tenue d’événements sportifs, l’IA pointait en rouge sur la carte des policiers les lieux où les crimes avaient statistiquement le plus de risques de se produire. L’algorithme Police prédictive, né au début des années 2010 à Los Angeles, a été amélioré. En 2017, la municipalité de Santa Cruz affirmait d’ailleurs qu’en utilisant cet outil, elle avait fait baisser le nombre de cambriolages de 20%. Puis les algorithmes prédictifs ont été adossés à des outils de profilage hérités de la publicité ciblée, prévoyant les actions des individus… C’est ainsi que mon père, innocent, s’est retrouvé incarcéré. Heureusement il fit partie des derniers. La pression de la société civile et les terribles manifestations ont forcé à une législation stricte en matière d’utilisation d’algorithmes prédictifs. Ceux-ci ne peuvent désormais plus structurer a priori le champ d’action possible des individus. Des domaines ont été décrétés réservés aux hommes, au nom de la notion d’humanité. Les IA sont devenues des êtres juridiques, avec des droits, des responsabilités et des devoirs. Nous avons rectifié le tir, et je suis heureux de pouvoir en discuter avec mon père par hologrammes interposés – mon paternel coulant des jours heureux sur l’île flottante d’Utopia – en riant de cette aventure passée… »

Avis d’expert : Serge Abiteboul, informaticien à l’ENS et directeur de recherche à l’INRIA, qui a écrit « Le temps des algorithmes » :

« Les algorithmes n’ont pas d’intention »

Peut-on parler d’une prise de conscience du potentiel de l’IA et d’une crainte ?

Les algorithmes inquiètent. Des métiers disparaissent par leur faute, des gouvernants s’en servent pour restreindre nos libertés, des entreprises privées les utilisent dans leurs calculs cyniques. Les « algorithmes intelligents » à venir sont redoutés. Mais ce sont avant tout des solutions. S’ils sont à l’origine de transformations radicales des notions de travail, de propriété, de gouvernement, de responsabilité, de vie privée… c’est à nous de décider de quel côté faire pencher la balance. Il y a effectivement anxiété, car l’informatique et l’IA annoncent des possibilités énormes, et donc en parallèle des risques. Mieux vaut les comprendre pour les maîtriser.

Une utilisation abusive est-elle à redouter ?

Depuis 50 ans les algorithmes font des progrès considérables. Mais quand ils s’illustraient en battant un champion de Go, nous étions encore dans la sphère du jeu. Désormais leurs accomplissements sont plus complexes et impactent directement notre vie quotidienne, nous faisant de plus en plus nous poser des questions sur notre humanité. Ils vont accomplir des tâches qu’on pensait humaines et intelligentes. Aux Etats-Unis, surtout sur la côte Ouest, on regarde en priorité leurs aspects positifs. Les Français les craignent plus, mais s’en emparent tout autant. En Asie les gens se posent moins de questions sur les robots et l’IA, étant prêts à leur confier un maximum de tâches. La culture européenne accorde plus de spécificités à l’être humain, qui a des domaines réservés. Dans notre culture s’occuper des personnes âgées fait partie de notre humanité. Evidemment il sera utile de s’appuyer sur des robots, qui feront gagner des années d’indépendance aux seniors. Mais les algorithmes ne peuvent tout faire. Les proches humains ne peuvent être remplacés par des robots. Il y a un choix de société à accomplir.

Quels sont selon vous les limites et garde-fous à poser ?

Comme les algorithmes vont influencer tout le monde, ils doivent se comporter comme des citoyens dans la vie de la cité, à savoir être justes et aller dans le sens d’une société plus humaine. On attend même qu’ils se comportent mieux que des êtres humains. Cela signifie leur montrer des cas d’espèces particuliers, pour qu’ils ne reproduisent pas les biais humains. N’oublions pas qu’ils n’ont pas d’intention et sont ce que nous voulons qu’ils soient. Enfin ils doivent être transparents : le choix, aussi rationnel soit-il, d’envoyer un adolescent dans tel lycée doit être expliqué aux familles.

Julien Tarby

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

J’accepte les conditions et la politique de confidentialité

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.