Publicité

Une start-up prétend pouvoir identifier les terroristes et pédophiles par reconnaissance faciale

Faces. Crédits photo : Alba García Aguado/Flickr/CC BY-NC 2.0

Faception, une start-up israélienne, associe aux traits d'un visage des caractéristiques comportementales, et affirme pouvoir ainsi repérer les pédophiles et terroristes. Sa méthode est toutefois contestée.

Joueurs de poker professionnels, individus au QI élevé, mais aussi pédophiles et terroristes... Autant de catégories de personnes déterminées arbitrairement par Faception et auxquelles la start-up a respectivement associé des traits caractéristiques. Dépeinte par un article du Washington Post, elle a suscité de vives polémiques dans les médias internationaux. Grâce à une technologie fondée sur la reconnaissance faciale, il lui serait possible de reconnaître une quinzaine de catégories d'individus dans 80% des cas, à partir de l'analyse de flux vidéo ou de simples photographies. Faception se targue également d'avoir réussi à identifier les meilleurs joueurs d'un tournoi de poker, organisé par l'un de ses partenaires: sur les cinquante participants de la compétition, deux des quatre joueurs désignés se sont effectivement rendus en finale. Sur la base de ses résultats, elle aurait d'ores et déjà conclu un contrat avec un organisme de sécurité pour identifier de potentiels terroristes

A chaque catégorie d'individus, son visage type. Via faception.com

Ni le Washington Post, ni le site Web de l'entreprise ne fournissent néanmoins d'indications quant au contenu et aux méthodes d'élaboration des bases de données utilisées. Seul le postulat de base de l'entreprise est clairement évoqué par Shai Gilboa, son directeur général: «Notre personnalité est déterminée par notre ADN et se laisse deviner sur notre visage. Il faut y voir une forme de signal».

«Il s'agit là d'une version moderne et teintée de technologie de thèses du XIXe siècle», note Jean-Gabriel Ganascia, professeur au laboratoire d'informatique de Pierre-et-Marie-Curie, à Paris, et auteur de L'intelligence artificielle (Ed. Le Cavalier Bleu, 2007). «L'une d'entre elles, la physiognomonie partait du principe selon lequel l'observation physique d'une personne pouvait en dire long sur son caractère. Mais il a été montré que ce postulat conduisait à de nombreux abus et ne reposait sur aucun fondement sérieux».

Une idéologie derrière les algorithmes

En matière de traitement automatique des informations par les algorithmes, les biais restent encore nombreux. Ils résultent de la nécessaire intervention humaine dans leur élaboration. Une analyse menée par ProPublica révélait ainsi le 23 mai qu'un algorithme destiné à prédire les récidives, et très utilisé dans l'univers carcéral américain, avait tendance à léser les Noirs. Jugés davantage susceptibles de récidiver - alors que 44,9 % des Afro-américains classés dans cette catégorie n'avaient pas commis d'autres crimes, contre 23,5 % de personnes blanches - ils auraient également deux fois plus de chances d'être considérés comme potentiels récidivistes violents, sans que cela soit non plus suivi de faits.

La mise en garde vaut également pour Faception. Jean-Gabriel Ganascia soupçonne une confusion entre de simples corrélations émanant de ses fondateurs et de véritables liens de causalité entre traits du visage et comportements suspectés. Et regrette la tendance de certaines organisations à se laisser aller à une confiance aveugle en ces technologies.

Des versants sécuritaires et commerciaux

En plein essor, le secteur de la reconnaissance faciale voit les innovations se succéder. Il y a près d'un an, DeepFace (Facebook) annonçait un taux de reconnaissance correct des visages de 87,25%, presque équivalent à celui des humains et depuis dépassé par FaceNet (Google), avec ses 99,63%.

Derrière les démonstrations techniques, se cachent d'importantes retombées financières et commerciales, bien perçues par les grandes enseignes. Si FaceFirst proposait dès fin 2015 ses services à Walmart pour identifier plus efficacement les voleurs, la SNCF teste actuellement des caméras «intelligentes» afin de repérer les mouvements anormaux, dans les gares RER de Saint-Denis et de la Bibliothèque François Mitterrand. Mattersight Corporation, basée à Chicago, devrait quant à elle permettre à ses entreprises clientes d'analyser les vidéos publiques d'un utilisateur sur Vine ou Youtube pour recueillir des données à son sujet et prédire son comportement.

Une start-up prétend pouvoir identifier les terroristes et pédophiles par reconnaissance faciale

S'ABONNER
Partager

Partager via :

Plus d'options

S'abonner
21 commentaires
  • Drareg10

    le

    Tiens, une start up israélienne propose dans ses services les mêmes méthodes que celles employées par le régime nazi (et ses alliés) pour 'débusquer' les Juifs avant de les convoyer vers les camps de la mort. Mais où va le monde?
    Et est-ce que cette start up, pour avoir un propos plus léger, va pouvoir permettre la détection des mangeurs de tomates, ce qui pourrait permettre aux acteurs de la filière "Fruits et légumes" de mieux adapter en flux tendu leurs approvisionnements des épiceries et étalages de marchés ?

  • Antiegoisme

    le

    Basé sur la couleur de peau bien sûr...
    C'est pathétique !

  • Erween

    le

    Repter les erreurs du passé, c'est ce qui arrrive quand on ne connait pas l'Histoire.
    La psychomorphologie a été utilisée en France, au début du XXe siecle, et abandonnée au vu de ses erreurs.
    Les nazis l'ont utilisé pour "detecter" les juifs, avec les mêmes erreurs.

À lire aussi