Temps de lecture estimé : 2 minutes
Temps de lecture constaté 2’30
Le Parlement européen vient de voter un rapport sur les systèmes d’identification basés sur l’IA. En cause, l’utilisation de ces techniques par les forces de l’ordre, jugées discriminantes.
Le Parlement européen vient de voter un rapport d’initiative pour demander des garanties solides aux forces de l’ordre lors du recours à l’intelligence artificielle. Il pointe du doigt l’algorithme utilisé dans les applications d’IA. Les parlementaires précisent que des contrôles humains et juridiques sont nécessaires pour prévenir d’éventuelles discriminations, en particulier par les services répressifs. Le vote de ce rapport d’initiative vient d’être adopté par 377 voix, contre 248 et 62 abstentions.
Le rapport souligne notamment que les systèmes d’identification basés sur l’IA commettent de nombreuses erreurs d’identification. Particulièrement lorsqu’il s’agit de populations minoritaires : personnes racisées, personnes âgées, LGBTI, femmes… Leur utilisation devra désormais être encadrée pour prévenir ce genre d’incidents.
Encadrement nécessaire
Les député·es estiment que le recours à de tels systèmes ne devrait s’opérer qu’à des fins répressives « clairement justifiées » et dans le « plein respect des principes de proportionnalités et de nécessité ». Leur utilisation doit se faire dans le respect des exigences de « minimisation des données, de limitation du stockage, de sécurité, des données et du principe de responsabilité », ont-ils expliqué. En outre, les parlementaires tentent de supprimer l’usage de la reconnaissance faciale automatisée dans les espaces publics. Ils ont également demandé d’interdire aux forces de l’ordre l’utilisation de sources privées de reconnaissance faciale, comme la start-up Clearview AI.
Le Parlement s’inquiète d’un recours douteux aux collectes de données
Initialement créée pour prévenir les crimes, les données privées de Clearview AI sont collectées sur les réseaux sociaux et réutilisées sans le consentement des personnes concernées. Les député·es ont demandé aux États membres de faire savoir si leurs services répressifs ont recours à cette solution ou à des « technologies équivalentes ».
Le Parlement tente également de bannir l’utilisation des données biométriques pour l’identification à distance. Notamment lors de contrôles frontaliers. Même chose pour le projet iBorderCtrl (« un système intelligent de détection de mensonges »).
En avril, la Commission européenne avait présenté une proposition de règlement concernant le « recours à la reconnaissance dans les espaces qui accueillent du public » à condition de « respecter certaines garanties procédurales ». Ce qui avait profondément déplu au Contrôleur européen à la protection des données, qui jugeait que les remarques sur la reconnaissance faciale n’avaient pas été prises en compte.
Toutefois, les outils d’IA sont de plus en plus utilisés par la police. Comme pour la reconnaissance faciale, la lecture sur les lèvres, la surveillance … Ils servent également à identifier les risques de récidive, et reconnaître les groupes problématiques grâce aux caméras. Alors l’intelligence artificielle, véritable solution ou cadeau empoisonné ?