La police de Chicago utilise un programme de reconnaissance faciale qui scanne des milliards de photos sur Facebook

Clearview AI, basée à Manhattan, recueille des données auprès d’utilisateurs de médias sociaux peu méfiants et le département de police de Chicago (CPD) utilise l’outil controversé de reconnaissance faciale pour identifier des suspects inconnus, selon un rapport du Chicago Sun-Times.

Et selon un rapport du New York Times, le FBI et le département de la sécurité intérieure l’utilisent également.

Le créateur du logiciel, Hoan Ton-That, soutient qu’il s’agit purement « d’un outil de recherche après coup pour l’application de la loi, et non d’un système de surveillance ou d’une application pour les consommateurs ». Cependant, les défenseurs de la vie privée affirment que cette technologie est si intrusive et si propice aux abus qu’il faudrait immédiatement mettre un terme à son utilisation. Et au début de ce mois, un procès a été intenté devant la cour fédérale dans ce sens.

L’avocat de Chicago Scott Drury, qui a déposé la plainte, décrit comme « effrayante » la signature par le CPD d’un contrat de deux ans, d’une valeur de 49 875 dollars, avec la société de technologie de l’Illinois CDW Government pour l’utilisation du logiciel de Clearview AI.

A l’inverse, le porte-parole de la police de Chicago, Anthony Guglielmi, explique :
Recevez les dernières nouvelles de The Mind Unleashed dans votre boîte de réception. Inscrivez-vous ici.

« Notre obligation est de trouver les individus qui ont fait du mal à d’autres personnes et de les traduire en justice. Et nous voulons pouvoir utiliser tous les outils disponibles pour pouvoir remplir cette fonction, mais nous voulons pouvoir le faire de manière responsable ».

Selon la police, certains fonctionnaires du CPD au Centre de prévention et d’information sur la criminalité ont utilisé le logiciel à titre d’essai pendant deux mois avant la signature du contrat en janvier.

Malgré les deux mois d’essai et le fait que le contrat ait été signé pour environ un mois, le porte-parole du CPD, Howard Ludwig, a refusé d’expliquer si et quand Clearview AI a été utilisé par le département jusqu’à présent. Ludgwig a expliqué :

« Toute information sur les enquêtes en cours ne peut provenir que d’affaires ayant fait l’objet d’un jugement approfondi. Nous n’avons pas eu Clearview assez longtemps pour que l’une des affaires soit passée devant les tribunaux ».

La base de données de Clearview AI comprend trois milliards de photos prises sur les médias sociaux et les plateformes de réseaux tels que Facebook, YouTube et Twitter. Le logiciel recherche dans son énorme base de données des correspondances après que les utilisateurs, y compris le CPD, aient téléchargé la photo d’un suspect. L’utilisateur reçoit alors des liens pour chaque image retournée lors de la recherche que l’entreprise a un jour demandé à la police de Green Bay de « faire tourner en rond » dans un e-mail de marketing.

Le Sun-Times a déclaré : « Notre logiciel renvoie à des pages web publiques, pas à des données privées ». Il est clair qu’il ne semble pas penser que le logiciel pose des problèmes. Mais ce mois-ci, le procureur général du New Jersey, Gurbir Grewal, a « décrété un moratoire sur le logiciel de reconnaissance faciale de Clearview AI, qui fait froid dans le dos et n’est pas réglementé ».

L’ACLU du New Jersey a répondu à ce mouvement par un tweet vendredi dernier :

« Une technologie comme celle-ci ouvre une boîte de Pandore pour des recherches constantes sans mandat, à peu près n’importe qui ayant une photo et un nom en ligne. C’est un outil qui pourrait faire d’un système de justice pénale déjà inégalitaire un véritable dystopique. Le New Jersey a raison de fermer cette boîte de Pandore ».

L’ACLU a également souligné à juste titre la tendance de la technologie de reconnaissance faciale à avoir un parti pris contre « les personnes de couleur, les femmes et les personnes non binaires ». En fait, comme TMU l’a déjà signalé, les voitures qui se conduisent seules sont moins susceptibles de détecter les Noirs et l’intelligence artificielle (IA) envoie les mauvaises personnes en prison.

Les critiques à l’encontre de Clearview AI et des logiciels de reconnaissance faciale vont bien au-delà des personnes impliquées dans le procès mentionné ci-dessus et de l’ACLU du New Jersey. Dans ce qui est l’un des plus grands efforts à ce jour dans la lutte contre l’utilisation des technologies de reconnaissance faciale, 40 organisations ont signé une lettre adressée au Conseil de surveillance de la vie privée et des libertés civiles du ministère de la sécurité intérieure, demandant l’interdiction de l’utilisation de ces technologies par le gouvernement américain « en attendant un examen plus approfondi ». La lettre note que cette technologie pourrait être exploitée et utilisée pour « contrôler les populations minoritaires et limiter la dissidence ».

Cependant, comme le souligne Fast Company, tout le monde ne se sent pas pareil. En fait, certains considèrent des actions comme la lettre mentionnée ci-dessus comme « une réaction excessive ».

Jon Gacek, chef du service juridique et de la conformité de Veritone-une société qui fournit une technologie comme Clearview AI pour les forces de l’ordre en Europe et aux États-Unis- affirme que tout ce que fait le logiciel est d’utiliser « la technologie pour faire ce que la police fait déjà, sauf que c’est beaucoup plus rapide et moins cher ».

Twitter a répondu au rapport de la bombe NYT en envoyant une lettre à Clearview AI la semaine dernière. Dans un rapport de suivi, le NYT a expliqué :

« Twitter a envoyé cette semaine une lettre à la petite start-up Clearview AI, lui demandant de cesser de prendre des photos et toute autre donnée sur le site de médias sociaux « pour quelque raison que ce soit » et de supprimer toute donnée qu’elle avait précédemment collectée, a déclaré une porte-parole de Twitter. La lettre de cessation et d’abstention, envoyée mardi, accusait Clearview de violer les politiques de Twitter ».

Alors que les personnes concernées par la protection de la vie privée se concentrent généralement sur l’utilisation de leurs photos et de leurs données par des sociétés de médias sociaux à des fins lucratives, la situation de Clearview AI nous rappelle que ce que nous mettons en ligne peut être et sera utilisé d’une manière à laquelle nous n’avons pas consenti, malgré nos efforts pour nous tenir au courant des mises à jour des conditions d’utilisation et en cochant autant de cases d’exclusion que possible.

Article traduit par Dr.Mo7oG pour No Signal Found // Tous droits réservés

Source : THEMINDUNLEASHED

Please follow and like us:

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

RSS