• A la une
  • IA
  • Emotions : les technologies biométriques sont immatures

Emotions : les technologies biométriques sont immatures

1 mois ago
25

L’ICO, organisme anglais, alerte sur l’utilisation de certaines technologies biométriques immatures, notamment celles destinée, prétendument, à analyser les émotions.
L’Information Commissioner’s Office (ICO) est l’organisme de réglementation indépendant du Royaume-Uni pour la protection des données et la législation sur les droits à l’information, défendant les droits à l’information dans l’intérêt public, promouvant l’ouverture par les organismes publics et la confidentialité des données pour les particuliers.

 

L’Information Commissioner’s Office (ICO) avertit les organisations d’évaluer les risques publics liés à l’utilisation des technologies d’analyse des émotions avant de mettre en œuvre ces systèmes.

Les technologies d’analyse émotionnelle traitent des données telles que le suivi du regard, l’analyse des sentiments, les mouvements faciaux, l’analyse de la démarche, les battements de cœur, les expressions faciales et l’humidité de la peau.

Les exemples incluent la surveillance de la santé physique des travailleurs en offrant des outils de dépistage portables ou en utilisant des méthodes visuelles et comportementales, y compris la position du corps, la parole, les yeux et les mouvements de la tête pour inscrire les étudiants aux examens.

L’analyse des émotions repose sur la collecte, le stockage et le traitement d’une gamme de données personnelles, y compris des réponses comportementales ou émotionnelles subconscientes et, dans certains cas, des données de catégorie spéciale. Ce type d’utilisation des données est beaucoup plus risqué que les technologies biométriques traditionnelles utilisées pour vérifier ou identifier une personne.

L’ incapacité des algorithmes qui ne sont pas suffisamment développés à détecter les signaux émotionnels signifie qu’il existe un risque de biais systémique, d’inexactitude et même de discrimination.

Pour Stephen Bonner (ICO), les risques sont très présents

« Les développements sur le marché de la biométrie et de l’IA émotionnelle sont immatures. Ils peuvent ne pas encore fonctionner, voire jamais.

Bien qu’il existe des opportunités, les risques sont actuellement plus grands. À l’ICO, nous craignons qu’une analyse incorrecte des données puisse entraîner des hypothèses et des jugements sur une personne qui sont inexacts et conduisent à la discrimination.

Les seuls déploiements biométriques durables seront ceux qui sont entièrement fonctionnels, responsables et soutenus par la science. Dans l’état actuel des choses, nous n’avons pas encore vu de technologie d’IA émotionnelle se développer de manière à satisfaire aux exigences de protection des données, et nous avons des questions plus générales sur la proportionnalité, l’équité et la transparence dans ce domaine.

L’ICO continuera à scruter le marché, en identifiant les parties prenantes qui cherchent à créer ou à déployer ces technologies, et en expliquant l’importance d’une confidentialité et d’une conformité accrues des données, tout en encourageant la confiance dans le fonctionnement de ces systèmes. »

Des recommandations à venir au printemps 2023

L’ICO est un défenseur de l’innovation authentique et de la croissance des entreprises. Elle promet d’agir positivement envers ceux qui font preuve de bonnes pratiques, tout en prenant des mesures contre les organisations qui tentent d’obtenir un avantage injuste en utilisant des technologies de collecte de données illégales ou irresponsables.

En plus de mettre en garde contre les risques liés aux technologies d’analyse des émotions, elle élabore des orientations sur l’utilisation plus large des technologies biométriques. Ces technologies peuvent inclure la reconnaissance faciale, des empreintes digitales et de la voix, qui sont déjà utilisées avec succès dans l’industrie.

Ses recommandations devraient être publiés au printemps 2023, et viseront à responsabiliser et à aider davantage les entreprises, ainsi qu’à souligner l’importance de la sécurité des données. Les données biométriques sont uniques à un individu et sont difficiles ou impossibles à modifier en cas de perte, de vol ou d’utilisation inappropriée.

De plus amples informations sont disponibles dans deux nouveaux rapports pour aider les entreprises à naviguer dans l’utilisation des technologies biométriques émergentes.

 

Exemples d’utilisation actuelle des technologies biométriques :  

  • Les sociétés financières utilisent la reconnaissance faciale pour vérifier les identités humaines en comparant des pièces d’identité avec photo et un selfie. Les systèmes informatiques vérifient ensuite la probabilité que les documents soient authentiques et que la personne sur les deux images soit la même.
  • Les aéroports visent à rationaliser les parcours des passagers grâce à la reconnaissance faciale à l’enregistrement, aux dépôts de bagages en libre-service et aux portes d’embarquement.
  • D’autres entreprises utilisent la reconnaissance vocale pour permettre aux utilisateurs d’accéder à des plateformes sécurisées au lieu d’utiliser des mots de passe.

Les technologies biométriques devraient également avoir un impact majeur sur les secteurs suivants :

  • Les secteurs de la finance et du commerce déploient rapidement la biométrie comportementale et des technologies telles que la géométrie de la voix, de la démarche et des veines à des fins d’identification et de sécurité.
  • Le secteur du fitness et de la santé qui élargit la gamme de données biométriques qu’il collecte, l’électronique grand public étant réutilisée pour les données de santé.
  • Le secteur de l’emploi a commencé à déployer la biométrie pour l’analyse des entretiens et la formation du personnel
  • L’analyse comportementale dans l’éducation préscolaire devient une préoccupation importante, quoique lointaine.
  • La biométrie fera également partie intégrante du succès du divertissement immersif.

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contribuer ou publier sur Tech Ethic