les-crises.fr

Ce site n'est pas le site officiel.
C'est un blog automatisé qui réplique les articles automatiquement

Le cri d’alarme des experts en intelligence artificielle contre la reconnaissance faciale, “historiquement dangereuse”. Par Sam Biddle

Wednesday 6 March 2019 at 06:30

Source : The Intercept, Sam Biddle, 06-12-2018

 

Un homme observe un visiteur en train de tester un appareil de reconnaissance faciale lors de la Conférence mondiale sur l’internet mobile à Pékin, le 26 avril 2018. Photo: Mark Schiefelbein/AP

Pour beaucoup d’entre nous, la reconnaissance faciale est passée rapidement du statut de nouveauté technologique à celui de réalité incontournable de notre quotidien, des millions de personnes étant prêtes à accepter au minimum que leur visage soit scanné par un logiciel d’aéroport, par leur iPhone ou par les grappes de serveurs de Facebook. Mais des chercheurs du AI Now Institute, à l’université de New York, ont émis de sérieuses mises en garde contre l’omniprésence de la reconnaissance faciale mais aussi contre sa parente, plus sinistre, la reconnaissance faciale d’émotions; une technologie qui prétend pouvoir identifier le sens caché de la forme de votre nez, du contour de votre bouche et de la manière dont vous souriez. Si cela semble avoir été exhumé du XIXème siècle, c’est parce que c’est plus ou moins le cas.

Le rapport de l’année 2018 de AI Now est un recueil de 56 pages sur la manière dont « l’intelligence artificielle » (IA) – terme générique qui comprend à la fois une myriade de tentatives scientifiques de simuler le jugement humain et des absurdités marketings – continue de s’étendre sans surveillance, réglementation ou examen éthique approfondi. Les auteurs du rapport couvrent un large éventail d’utilisations et d’abus, y compris des cas de discrimination raciale, de surveillance policière ainsi que des cas où les lois sur le secret commercial peuvent cacher des biais algorithmiques à un public surveillé par l’IA. Dans ce document, les chercheurs du AI Now Institute, créé l’année dernière pour s’attaquer aux répercussions sociales de l’intelligence artificielle, expriment une inquiétude particulière à l’égard de la reconnaissance d’émotions, « une sous-classe de la reconnaissance faciale, qui prétend pouvoir détecter des informations telles que la personnalité, les sentiments intérieurs, la santé mentale et “le niveau d’engagement d’un salarié” en se fondant sur des images ou des vidéos de visages ». Si l’idée que votre patron puisse vous observer à l’aide d’une caméra, qui utilise l’apprentissage machine, pour évaluer en continu votre état mental, est déjà assez grave, la perspective que la police utilise la « reconnaissance d’émotions » pour déduire ce que sera votre future activité criminelle à partir de « micro-expressions » de votre visage, est infiniment pire.

Lire la suite

Source: https://www.les-crises.fr/le-cri-dalarme-des-experts-en-intelligence-artificielle-contre-la-reconnaissance-faciale-historiquement-dangereuse-par-sam-biddle/