Le verbatim d’… Aurélie Jean, docteure en sciences et génie des matériaux

Temps de lecture estimé : 2 minutes

Temps de lecture constaté 2’10

La chercheuse Aurélie Jean a notamment sorti en octobre Les algorithmes font-ils la loi ?  

Les algorithmes guident nos vies. Ils ont abouti – entre autres – à l’automatisation du recrutement, à la validation ou non des demandes de crédit et même à la prédiction des récidives de certain·es détenu·es. Forcément, tout ce qui renvoie de près ou de loin à une démarche scientifique nous rassure. Les algorithmes revêtent une logique implacable car mathématique. On fait confiance aux algorithmes.

On retrouve surtout, derrière tel ou tel programme, des êtres humains. Des scientifiques certes – qui façonnent et construisent les algorithmes – mais des êtres humains avant tout. Intégré·es dans une société, qui a ses spécificités, à un instant T. Les algorithmes, en n’écartant pas certaines inégalités déjà présentes dans le monde réel, peuvent les normaliser et donc les renforcer. La chercheuse Aurélie Jean  l’a très bien compris : « Lorsque vous développez quelque chose, au lieu de penser au bien que vous pouvez faire pour une majorité, pensez au mal que vous pouvez faire à une minorité », a-t-elle lancé pour Ouest-France. GW

Les algorithmes créent des injustices, comme on l’a vu avec l’Apple Card (carte de crédit développée par Apple)…
Le scandale a éclaté à l’automne 2019, lorsque certains utilisateurs ont constaté qu’une femme ayant les mêmes conditions fiscales et le même historique de dépenses qu’un homme n’avait pas droit à la même ligne de crédit.

Comment expliquer une telle situation ?
Cet algorithme avait été développé par la banque d’affaires Goldman Sachs, en s’appuyant sur des données qui remontent à une époque où les femmes avaient des revenus moins élevés que les hommes. L’algorithme était donc une représentation datée qui ne correspondait plus à la réalité actuelle, entraînant ainsi une injustice.

Ils peuvent même être source de racisme…
Prenez les logiciels de reconnaissance faciale. Une chercheuse du MIT, Joy Buolamwini, a montré que les premiers logiciels de reconnaissance faciale reconnaissaient plus facilement les visages blancs que le sien, qui est noir. Le travail qu’elle a conduit a permis de décrypter le biais qui avait conduit à une telle dérive. Les programmes d’intelligence artificielle avaient tourné sur des bases de photos où les hommes blancs étaient surreprésentés. En 2015, Google avait été confronté au même type de problème. Google Photos confondait des personnes noires avec des gorilles.

Pourtant, vous dites qu’il ne faut pas faire le procès des algorithmes.
On les accuse aujourd’hui de tous les maux. Ils génèrent des discriminations raciales ou sexistes comme on vient de le voir avec ces exemples. Pour moi, c’est un faux procès, même avec les machines apprenantes. L’algorithme n’a pas de conscience. Il ne fait que ce pour quoi on l’a programmé. C’est la raison pour laquelle il faut être attentif à tous les biais qui peuvent intervenir.

Les scientifiques construisent un monde sur lequel ils doivent s’interroger davantage. Et les philosophes font porter leurs réflexions sur un monde qu’ils ne comprennent pas toujours. Il y a un concept que j’ai appris lors de mon cours d’éthique aux États-Unis, quand je travaillais en Pennsylvanie, dans un laboratoire médical. Lorsque vous développez quelque chose, au lieu de penser au bien que vous pouvez faire pour une majorité, pensez au mal que vous pouvez faire à une minorité. Si on travaillait de cette façon-là, il y aurait beaucoup moins d’incidents.

Retrouvez l’intégralité de l’entretien sur le site de Ouest-France

Journaliste-Chef de service rédactionnel. Formé en Sorbonne – soit la preuve vivante qu'il ne faut pas « nécessairement » passer par une école de journalisme pour exercer le métier ! Journaliste économique (entreprises, macroéconomie, management, franchise...). Friand de football et politiquement égaré.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

J’accepte les conditions et la politique de confidentialité

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.