Reconnaissance faciale dans l'aviation: la perspicacité

1-96
1-96
Écrit par Dmytro Makarov

Les systèmes de sécurité basés sur la technologie de reconnaissance faciale promettent d'améliorer l'expérience aéroportuaire - mais l'industrie aéronautique doit examiner attentivement l'opinion publique au milieu des critiques virulentes de ces systèmes par les défenseurs de la confidentialité et de la sécurité des données, écrit l'avocat de LeClairRyan. Marc A. Dombroff pour le magazine Airport Business.

«Alors que notre société s'adapte à ce qui peut sembler, au moins pour certains, un changement envahissant, l'industrie aéronautique devra gérer l'intégration de cette technologie avec soin et sensibilité», écrit Dombroff, un Alexandria, VirginieMembre du cabinet d'avocats national et co-leader de sa pratique dans le secteur de l'aviation.

Dans l'article («Forward-Facing: La reconnaissance faciale pourrait-elle remonter le temps sur l'expérience aéroportuaire américaine?»), Dombroff note que les aéroports du monde entier investissent dans des systèmes de reconnaissance faciale qui promettent, en substance, de transformer l'ensemble du terminal dans un point de contrôle de sécurité toujours actif.

Pendant ce temps, de plus en plus d'aéroports et de compagnies aériennes envoient des images numériques du visage des passagers à des fins de vérification par rapport aux profils biométriques dans une base de données gérée par le Département de la sécurité intérieure (DHS). Dans le meilleur des cas, l'avocat soutient que l'expérience de voyage pourrait considérablement s'améliorer, car les lignes de sécurité lentes cèdent la place à un embarquement rapide et facile. «Un optimiste pourrait même se demander si un voyage à l'aéroport en 2029 ressemblera un peu à un retour en 1999», écrit-il.

Mais au cours des derniers mois, les critiques virulents de ces systèmes semblent avoir gagné du terrain, met en garde Dombroff, citant des interdictions ou des propositions d'interdictions sur l'utilisation par le gouvernement de la technologie de reconnaissance faciale. San FranciscoSomerville, Massachusetts.et dans d'autres communautés.

Un autre titre a été le 1 milliard de dollars poursuite, déposée en avril dernier, par un New York étudiant de l'université alléguant qu'Apple avait utilisé la reconnaissance faciale pour l'accuser à tort de vol à l'étalage dans plusieurs magasins Apple du nord-est. Le même mois, poursuit Dombroff, le message Twitter indigné d'une passagère de JetBlue est devenu «viral» après avoir décrit avoir été invité à regarder dans une caméra avant d'embarquer sur un vol à JFK.

Dans ce contexte, les défenseurs de la vie privée ont exprimé leur inquiétude face aux projets du gouvernement américain de déployer la reconnaissance faciale pour tous les passagers internationaux dans les 20 principaux aéroports américains d'ici 2021. Les exploitants d'aéroports devraient-ils craindre d'être nommés dans des poursuites pour erreurs d'identification, profilage racial, etc. Une protection clé à garder à l'esprit, écrit Dombroff, est la SAFETY Act de 2002. Adoptée après le 9 septembre, elle a été conçue pour protéger les entreprises offrant des produits ou des services qui protègent les Américains contre le terrorisme.

Ces protections vont des fabricants aux utilisateurs finaux, et les aéroports et les compagnies aériennes doivent donc s'assurer que les créateurs de tous les produits et services liés à la sécurité, y compris les logiciels et les systèmes de reconnaissance faciale, ont obtenu l'enregistrement SAFETY Act, conseille Dombroff.

L'incident de JetBlue souligne à quel point il est important pour les compagnies aériennes et les aéroports d'être proactifs pour contrer la désinformation et s'assurer que les passagers comprennent comment ces systèmes fonctionnent, conseille Dombroff. «Grâce à la signalisation, à la messagerie sur les réseaux sociaux et à d’autres moyens, l’industrie doit indiquer clairement quand et comment les utilisateurs peuvent refuser les scans (et s’ils ne le peuvent pas, comme pour l’analyse de tout le terminal, les aéroports doivent être francs à ce sujet) ," il écrit.

«Étant donné que cette technologie est relativement récente et est susceptible d'avoir les bogues et les erreurs attendus, les contrôleurs doivent également être formés pour anticiper les erreurs d'identification», poursuit Dombroff. «Lorsqu'ils reçoivent un« coup », ils doivent réagir de manière professionnelle, emmener le passager sur le côté et procéder à une vérification d'identité standard.»

Après tout, les réponses agressives «d'alerte rouge» aux passagers mal identifiés sont un cauchemar de relations publiques dans l'attente, conclut l'avocat. "Pas de doute à ce sujet - ils seront filmés et publiés sur les réseaux sociaux dans les secondes qui suivent leur apparition, sinon en temps réel."

QUE RETENIR DE CET ARTICLE :

  • "Alors que notre société s'adapte à ce qui peut sembler, du moins pour certains, comme un changement invasif, l'industrie aéronautique devra gérer l'intégration de cette technologie avec soin et sensibilité".
  • "Un optimiste pourrait même se demander si un voyage à l'aéroport en 2029 ne ressemblera pas un peu à un retour en arrière en 1999".
  • « Grâce à la signalisation, aux messages sur les réseaux sociaux et à d'autres moyens, l'industrie doit indiquer très clairement quand et comment les gens peuvent se désinscrire des analyses (et s'ils ne le peuvent pas, comme pour l'analyse de l'ensemble du terminal, les aéroports doivent être francs à ce sujet). »,.

<

A propos de l'auteure

Dmytro Makarov

Partager à...