Page 11 - EcoRéseau n°25
P. 11

n°25
www.ecoreseau.fr
Grand Angle - Ces algorithmes qui nous gouvernent PANoRAMA
Dernier bastion
L’humour sarcastique indétectable ?
A chaque fois que les politiques font une déclaration, leur intervention est vivement commentée sur les réseaux sociaux. L’analyse des réactions est très instructive quant à la manière de laquelle les paroles et promesses sont reçues. Les instituts de sondage ont donc de plus en plus recours à des algorithmes de sentiments, capables d’analyser les points de vue exprimés sur Internet. Mais ces programmes se heurtent à un obstacle de taille : ils sont incapables de saisir le second degré ! Les « Oui c’est ça Obama... » ; « Merci Hollande ! » « Bravo Sarkozy pour... » posent problème. Le sarcasme, l’ironie et tout élément implicite, preuves de l’intelligence humaine, déroutent les algorithmes, les instituts, et même les agences de renseignement. Quand François Hollande s’est défini comme audacieux, même Nadine Morano, en tweetant : « Grâce à moi, depuis que je suis Président, la France compte 1,3 million de chômeurs de plus. #Hollandelaudacieux », peut être comptabilisée comme une aficionada. Les spécialistes s’affairent pour perfectionner leurs programmes. Ainsi Nadine Morano ap- partient-elle à un parti de droite opposé au Président, ce qui doit figurer dans la base de données. La présence du mot «chômeurs» doit aussi alerter. Mais la détection reste hasardeuse. Les experts américains de l’étude d’opinion affutent leurs technologies pour les prochaines élections présidentielles, avec des algorithmes capables d’apprendre de leurs analyses passées («Machine Learning»). Seront-ils prêts ?
miques pour que le lecteur reste captivé », explique Michel Badoc(2), professeur au département marketing d’HEC. Enregistrer les émo- tions du cerveau grâce à des capteurs, et construire en fonction des résultats des histoires rythmées par les algorithmes devient courant. Mais les projets créatifs qui n’entrent pas dans les bonnes cases ont alors moins de chances de voir le jour. La subtilité et l’éclectisme des goûts humains ne peuvent toujours s’enfermer dans des séquences logiques de chiffres... En outre ces ma- chines paramétrées ne tien- nent pas compte du contexte. Une étude de l’université d’Harvard montre que lorsqu’on saisit un nom à consonance afro-américaine, il y a des chances de voir apparaître dans les premiers résultats des sites qui pro- posent de consulter son ca- sier judiciaire. Un phéno- mène qui serait dû aux ha- bitudes de navigation des internautes. Le risque de dé- rive déshumanisante est pré- sent. Edward Snowden a ré- vélé l’existence d’un algo- rithme qui décide si on est ou pas citoyen américain : si on ne l’est pas, on peut être surveillé sans mandat !
Des principes éthiques et ju- ridiques ont été adoptés sur la collecte des données. « Il existe des méthodes qui em-
« IBM implante des systèmes coach numérique... mais à de régulation et de surveil- chaque fois nous dissémi- lance numérique dans les nons des flux de données métropoles de la planète, qui sont traitées par des al- en vantant les vertus de la gorithmes de plus en plus
BESOIN DE RÈGLES
pour la bioéthique. Il importe de sortir de la simple effi- cience et de s’inscrire dans le projet collectif. On ne de- mande pas seulement à l’Etat d’être efficace, celui-ci a aussi un rôle à jouer dans le bien-être, la dignité des personnes, le vivre-ensem- ble... » Le projet de civili- sation, porté par les géants du numérique, est inquiétant, car strictement utilitariste et marchand. « C’est aux ci- toyens et associations d’or- ganiser le combat contre le techno-pouvoir, qui organise de plus en plus nos exis-
RISQUES ÉVIDENTS D’ABUS
Tout est donc optimisé, flui- difié, sécurisé, et pourtant il n’est pas certain qu’il fasse bon vivre dans un tel monde. Dans le cinéma par exemple, on passe les scé- narios à la moulinette d’al- gorithmes pour déterminer si le jeu en vaut la chandelle. « Dans l’écriture les «scrib- doctors» travaillent sur le cerveau pour rendre les li- vres intéressants, comme ceux de Ken Follett qui sui- vent des règles ergono-
velles règles...
.
Gardons à l’esprit que derrière un algorithme il y a une intention, qu’il existe
«smart city», sans que des débats politiques à la hau- teur des enjeux ne se tien- nent », avertit Eric Sadin, qui s’inquiète de ces trans-
un jeu de pouvoir
sophistiqués, chargés de nous suggérer des offres et services personnalisés. La brosse à dents connectée est certes une aide au bros-
pêchent de remonter à un individu précis quand on croise les data », rappelle Henri Verdier, DSI de l’Etat. Mais il reste à en instaurer
faisant des expériences sur les feux : « Nous changeons la priorité de circulation, avec par exemple des bus qui ont tous les feux verts. Et nous comparons avec les jours normaux, pour mesu- rer l’incidence sur la vitesse moyenne des autres conduc- teurs ». Les algorithmes, en essayant différents scénarios, comparant, sélectionnant ce qui donne le meilleur résultat en un temps record, per- mettent de prendre les bonnes décisions parmi une multitude d’éventualités. Pa- geRank, l’algorithme maison de Google, propose, en ré- ponse à la requête de l’in- ternaute, les adresses de sites les plus adaptées.
« Depuis qu’un algorithme passe en revue les données de ma balance connectée et commande ma nourriture en ligne, la vie est moins olé olé... »
ferts de responsabilité. La quantification continue des êtres et des choses par des systèmes automatisés nous font basculer dans une autre dimension, car surviennent des actions rétroactives. « Ce qui me dérange est que l’in- dustrie du numérique s’est arrogée un pouvoir de «gou- vernementalité» – au sens où l’entendait Michel Fou- cault comme la faculté de certaines personnes à agir sur le cours de l’existence d’autres personnes, pointe le philosophe. Notre smart- phone nous géolocalise, no- tre montre connectée enre- gistre nos constantes, notre balance se transforme en
sage, mais aussi un enre- gistrement de données pour nous vendre bains de bouche et soins dentaires. » Sous couvert de «libération» dé- mocratique des données et de services ajoutés, des in- formations sont transformées en applications marchandes, des séquences de vie sont monétisées. « Gardons tou- jours à l’esprit que derrière un algorithme il y a une in- tention, qu’il existe un jeu de pouvoir », rappelle Eric Sadin. Les programmes de flash trading ou les logiciels de Volkswagen ont été conçus par des humains dans un but précis.
en matière d’algorithmes. Pour ce chef des données de la France, « un débat doit s’ouvrir sur les décisions toujours plus nombreuses qui touchent à la démocratie et qui sont prises à partir de calculs algorithmiques. On arrivera un jour à éva- luer avec une quasi-certitude la probabilité de la récidive. Souhaitons-nous que les li- bérations anticipées dépen- dent d’une machine ? Si on le fait, c’est la porte ouverte à un monde déshumanisé, si on ne le fait pas on laisse une marge d’erreur dom- mageable pour la société. Un débat doit avoir lieu comme cela a été le cas
tences », ose Eric Sadin. Certains en appellent au po- litique pour qu’il reprenne l’initiative, d’autres aspirent à un «parlement transnatio- nal» des données chargé de veiller à nos libertés numé- riques. A nouveau jeu, nou-
(1) « La vie algorith- mique : critique de la rai- son numérique », d’Eric Sadin, L’Echappée Edi- tions, 2015.
(2) « Le neuromarketing en action », Patrick Georges et Michel Badoc, éd. Eyrolles, 2012
Julien Tarby
NoVEMBRE 2015
11


































































































   9   10   11   12   13