Suite à la violation des droits et des libertés individuelles causée par la surexploitation des logiciels de reconnaissance faciale, IBM arrête leur développement.
D’après la déclaration du PDG d’IBM, Arvind Krishna, IBM n’offrira plus de logiciel de reconnaissance faciale. La société ne développera plus cette technologie puisqu’elle s’oppose fermement à son utilisation pour la surveillance de masse, le profilage racial, les violations des droits et libertés fondamentales de la personne, ou tout autre objectif non conforme aux valeurs et principes de l’entreprise. « Nous pensons que le moment est venu d’entamer un dialogue national sur l’opportunité et la manière dont la technologie de reconnaissance faciale devrait être utilisée par les autorités nationales chargées de l’application des lois. » a déclaré Krishna dans une lettre qu’il a adressé au Congrès Américain. Dans cette même lettre, Krishna a également plaidé pour une réforme de la police. Il considère que les cas d’inconduite policière devraient être soumis à la juridiction fédérale. Il estime en outre que le Congrès devrait apporter des modifications à la doctrine de l’immunité qualifiée.
Mercedes et IBM inventent une batterie plus performante et moins chère
Des systèmes biaisés
En 2018, les recherches de Joy Buolamwini et Timnit Gebru ont révélé pour la première fois dans quelle mesure de nombreux systèmes commerciaux de reconnaissance faciale (y compris IBM) étaient biaisés. Cette étude a mené à une critique générale des algorithmes et à des tentatives de rectifications.
Une étude de décembre 2019 du National Institute of Standards and Technology (NIST) a quant à elle trouvé des preuves empiriques sur l’existence d’un large éventail de précision à travers les différences démographiques, dans la majorité des algorithmes de reconnaissance faciale. Cette technologie a également été critiquée pour son rôle dans l’atteinte à la vie privée. L’étude du NIST n’a pas inclus la technologie d’Amazon, qui est l’une des plus grandes sociétés à vendre des logiciels de reconnaissance faciale aux forces de l’ordre. Pourtant, ces logiciels sont peu fiables. En effet, en 2018, l’American Civil Liberties Union a constaté que ces programmes ont fait correspondre à tort 28 membres du Congrès à des visages choisis parmi 25000 photos publiques.
Les réseaux sociaux comme base de données
Une autre entreprise, Clearview AI, a fait l’objet d’un examen minutieux. Son outil de reconnaissance faciale est construit avec plus de 3 milliards d’images compilées, notamment à partir des réseaux sociaux. De plus, le programme était largement utilisé par des entreprises privées. Clearview a depuis reçu l’ordre de respecter les termes de confidentialité. Facebook a également été condamné en janvier à payer 550 millions de dollars suite à l’utilisation illégale de la technologie de reconnaissance faciale.
Facebook a utilisé une app de reconnaissance faciale sur ses employés
Source : The Verge