Ces systèmes de calcul qui exploitent les data régentent plus nos vies que l’on veut bien le croire…

« Messieurs, vous êtes tous suspectés par l’algorithme d’être sur le point de commettre un délit. Avouez ! »
« Messieurs, vous êtes tous suspectés par l’algorithme d’être sur le point de commettre un délit. Avouez ! »

Si vous lisez cet article en ligne, c’est grâce à un algorithme. A terme notre environnement, déjà influencé par de multiples «recommandations», sera de plus en plus déterminé en temps réel par les mathématiques. Effectuer nos achats, choisir un film à visionner ou encore une chanson à écouter, gérer nos relations amoureuses sur des sites qui calculent le «taux de correspondance ou d’affinité», nous repérer sur la route… Certes, tout est plus efficace et rapide, mais nous nous engageons dans une nouvelle société.

Fantasmes indéniables

A chaque fois entrent en scène les programmes désignés d’après le nom du mathématicien perse Muhammas Ibn Musa Al-Khwarizmi – les algorithmes – qui ne sont que de simples séries d’instructions sur la manière de réaliser quelque chose. « La définition habituelle n’est ni plus ni moins qu’une méthode pour résoudre un problème, indépendamment de toute machine. Lorsqu’on fait une addition, nous utilisons l’algorithme qui fait commencer par les unités, puis les dizaines et les centaines. Lorsqu’on cherche un mot dans le dictionnaire, nous ne commençons pas par la première page, nous allons directement au début de la lettre qui nous intéresse. Bref, nous suivons un algorithme particulier », illustre Gilles Dowek, chercheur à l’Institut national de recherche en informatique et en automatique (Inria), rompant avec les fantasmes sur des programmes à qui sont prêtés des pouvoirs quasi divins. En attestent encore les débats houleux à l’Assemblée nationale lors du projet de loi sur le renseignement, non pas parce qu’on surveillait chaque citoyen, mais parce que l’algorithme du gouvernement allait scanner les mails et s’auto-paramétrer, en fixant la liste des mots dangereux à partir de son expérience de messages de criminels. « Dès qu’il y a surveillance par une machine, qui peut faire preuve d’autonomie, les gens ont peur », explique l’ingénieur. Or les algorithmes que nous utilisons tous les jours ne sont pas apprenants. Tous les cas sont prévus, et les tâches sont exécutées mécaniquement, sans improvisation et réflexion. Depuis le milieu du XXe siècle nous les avons liés à des machines ordinateurs, tant les données sont nombreuses. Les quantités de data accumulées – via les appareils connectés, les capteurs… – sont telles que l’on fait de plus en plus confiance aux algorithmes pour ne pas sombrer dans le chaos. « Ce qui ne veut pas dire que nous ne les maîtrisons pas », rappelle l’ingénieur de l’Inria.

Des vertus à la rationalisation extrême

Grâce à eux de nombreux phénomènes du monde, dé-sormais réduits à des données, ont pu être toujours mieux expliqués, étudiés, comparés… Bien sûr l’ingénierie, la science, mais aussi le sport (cf. encadré), la justice et autres domaines des sciences humaines et sociales. De même les données publiques toujours plus ouvertes vont donner lieu grâce aux algorithmes à de nouveaux services dans moult domaines : « Pas seulement les transports ou l’énergie, mais aussi la santé, la sécurité, les loisirs, etc., vont être repensés dans les villes », prévoit Remi Dorval, président du think tank la Fabrique de la Cité qui a récemment organisé une rencontre avec des «chief data officers» de grandes villes américaines. Des exemples ? Les cartographies interactives utilisant les données de géolocalisation et les réseaux sociaux pour proposer en temps réel une gestion automatisée des flux et personnes. En matière de délinquance à Chicago par exemple : « Grâce au traitement des données collectées, des appels téléphoniques et témoignages des personnes, nous définissons des micro-zones où nous pouvons prendre des décisions éclairées grâce aux algorithmes, quant à la présence policière par exemple », illustre Brett Goldstein, le Monsieur Data de la ville qui cherche à anticiper l’acte malveillant ! « Cette rationalisation s’accompagne d’un accroissement de puissance et d’une influence sur le cours des choses », précise le philosophe et écrivain Eric Sadin(1). Ainsi à Boston, Jascha Franklin-Hodge, en charge des données, utilise la ville comme un laboratoire, en faisant des expériences sur les feux : « Nous changeons la priorité de circulation, avec par exemple des bus qui ont tous les feux verts. Et nous comparons avec les jours normaux, pour mesurer l’incidence sur la vitesse moyenne des autres conducteurs ». Les algorithmes, en essayant différents scénarios, comparant, sélectionnant ce qui donne le meilleur résultat en un temps record, permettent de prendre les bonnes décisions parmi une multitude d’éventualités. PageRank, l’algorithme maison de Google, propose, en réponse à la requête de l’internaute, les adresses de sites les plus adaptées.

 

Risques évidents d’abus

Tout est donc optimisé, fluidifié, sécurisé, et pourtant il n’est pas certain qu’il fasse bon vivre dans un tel monde. Dans le cinéma par exemple, on passe les scénarios à la moulinette d’algorithmes pour déterminer si le jeu en vaut la chandelle. « Dans l’écriture les «scribdoctors» travaillent sur le cerveau pour rendre les livres intéressants, comme ceux de Ken Follett qui suivent des règles ergonomiques pour que le lecteur reste captivé », explique Michel Badoc(2), professeur au département marketing d’HEC. Enregistrer les émotions du cerveau grâce à des capteurs, et construire en fonction des résultats des histoires rythmées par les algorithmes devient courant. Mais les projets créatifs qui n’entrent pas dans les bonnes cases ont alors moins de chances de voir le jour. La subtilité et l’éclectisme des goûts humains ne peuvent toujours s’enfermer dans des séquences logiques de chiffres… En outre ces machines paramétrées ne tiennent pas compte du contexte. Une étude de l’université d’Harvard montre que lorsqu’on saisit un nom à consonance afro-américaine, il y a des chances de voir apparaître dans les premiers résultats des sites qui proposent de consulter son casier judiciaire. Un phénomène qui serait dû aux habitudes de navigation des internautes. Le risque de dérive déshumanisante est présent. Edward Snowden a révélé l’existence d’un algorithme qui décide si on est ou pas citoyen américain : si on ne l’est pas, on peut être surveillé sans mandat ! « IBM implante des systèmes de régulation et de surveillance numérique dans les métropoles de la planète, en vantant les vertus de la «smart city», sans que des débats politiques à la hauteur des enjeux ne se tiennent », avertit Eric Sadin, qui s’inquiète de ces transferts de responsabilité. La quantification continue des êtres et des choses par des systèmes automatisés nous font basculer dans une autre dimension, car surviennent des actions rétroactives. « Ce qui me dérange est que l’industrie du numérique s’est arrogée un pouvoir de «gouvernementalité» – au sens où l’entendait Michel Foucault comme la faculté de certaines personnes à agir sur le cours de l’existence d’autres personnes, pointe le philosophe. Notre smartphone nous géolocalise, notre montre connectée enregistre nos constantes, notre balance se transforme en coach numérique… mais à chaque fois nous disséminons des flux de données qui sont traitées par des algorithmes de plus en plus sophistiqués, chargés de nous suggérer des offres et services personnalisés. La brosse à dents connectée est certes une aide au brossage, mais aussi un enregistrement de données pour nous vendre bains de bouche et soins dentaires. » Sous couvert de «libération» démocratique des données et de services ajoutés, des informations sont transformées en applications marchandes, des séquences de vie sont monétisées. « Gardons toujours à l’esprit que derrière un algorithme il y a une intention, qu’il existe un jeu de pouvoir », rappelle Eric Sadin. Les programmes de flash trading ou les logiciels de Volkswagen ont été conçus par des humains dans un but précis.

 

Besoin de règles

Des principes éthiques et juridiques ont été adoptés sur la collecte des données. « Il existe des méthodes qui empêchent de remonter à un individu précis quand on croise les data », rappelle Henri Verdier, DSI de l’Etat. Mais il reste à en instaurer en matière d’algorithmes. Pour ce chef des données de la France, « un débat doit s’ouvrir sur les décisions toujours plus nombreuses qui touchent à la démocratie et qui sont prises à partir de calculs algorithmiques. On arrivera un jour à évaluer avec une quasi-certitude la probabilité de la récidive. Souhaitons-nous que les libérations anticipées dépendent d’une machine ? Si on le fait, c’est la porte ouverte à un monde déshumanisé, si on ne le fait pas on laisse une marge d’erreur dommageable pour la société. Un débat doit avoir lieu comme cela a été le cas pour la bioéthique. Il importe de sortir de la simple efficience et de s’inscrire dans le projet collectif. On ne demande pas seulement à l’Etat d’être efficace, celui-ci a aussi un rôle à jouer dans le bien-être, la dignité des personnes, le vivre-ensemble… » Le projet de civilisation, porté par les géants du numérique, est inquiétant, car strictement utilitariste et marchand. « C’est aux citoyens et associations d’organiser le combat contre le techno-pouvoir, qui organise de plus en plus nos existences », ose Eric Sadin. Certains en appellent au politique pour qu’il reprenne l’initiative, d’autres aspirent à un «parlement transnational» des données chargé de veiller à nos libertés numériques. A nouveau jeu, nouvelles règles…

 

(1) « La vie algorithmique : critique de la raison numérique », d’Eric Sadin, L’Echappée Editions, 2015.

(2) « Le neuromarketing en action », Patrick Georges et Michel Badoc, éd. Eyrolles, 2012

 

Julien Tarby

1 COMMENTAIRE

Répondre

Saisissez votre commentaire
Saisissez votre nom ici