C’est l’European Union Agency for Fundamental Rights (FRA) qui cette fois montre sa préoccupation vis à vis de diverses avancées technologiques.
Elle édite cette semaine un rapport intitulé : “GETTING THE FUTURE RIGHT : ARTIFICIAL INTELLIGENCE AND FUNDAMENTAL RIGHTS”.
Ce rapport révèle un manque de clarté quant à l’impact de l’IA sur les droits des personnes. Ceci même parmi les organisations qui l’utilisent déjà. La FRA appelle les décideurs politiques à fournir davantage d’orientations sur la manière dont les règles existantes s’appliquent à l’IA et à garantir que les futures lois sur l’IA protègent les droits fondamentaux.
Le rapport fait partie du projet de la FRA sur l’intelligence artificielle et les mégadonnées . Il s’appuie sur plus de 100 entretiens avec des organisations publiques et privées utilisant déjà l’IA. Il s’agit notamment des observations d’experts impliqués dans le suivi des violations potentielles des droits fondamentaux. Son analyse est basée sur l’utilisation réelle de l’IA en Estonie, Finlande, France, Pays-Bas et Espagne.
«L’IA n’est pas infaillible, elle est faite par des humains – et les humains peuvent faire des erreurs. C’est pourquoi les gens doivent savoir quand l’IA est utilisée, comment elle fonctionne et comment contester les décisions automatisées. L’UE doit clarifier comment les règles existantes s’appliquent à l’IA. Et les organisations doivent évaluer comment leurs technologies peuvent interférer avec les droits des personnes à la fois dans le développement et l’utilisation de l’IA », déclare Michael O’Flaherty, directeur de la FRA . « Nous avons l’opportunité de façonner une IA qui non seulement respecte nos droits humains et fondamentaux, mais qui les protège et les promeut également.»
Un rapport basé sur l’utilisation réelle dans l’UE
Le rapport identifie les pièges de l’utilisation de l’IA, par exemple dans la police prédictive, les diagnostics médicaux, les services sociaux et la publicité ciblée.
Il appelle l’UE et les pays de l’UE à:
- S’assurer que l’IA respecte TOUS les droits fondamentaux – l’IA peut affecter de nombreux droits – pas seulement la vie privée ou la protection des données. Cela peut également discriminer ou entraver la justice. Toute future législation sur l’IA doit en tenir compte et créer des garanties efficaces.
- Garantir que les gens peuvent contester les décisions prises par l’IA – les gens doivent savoir quand l’IA est utilisée et comment elle est utilisée, ainsi que comment et où se plaindre. Les organisations utilisant l’IA doivent être en mesure d’expliquer comment leurs systèmes prennent des décisions.
- Évaluer l’IA avant et pendant son utilisation pour réduire les impacts négatifs – les organisations privées et publiques devraient évaluer la manière dont l’IA pourrait porter atteinte aux droits fondamentaux.
- Fournir davantage d’orientations sur les règles de protection des données – l’UE devrait clarifier davantage la manière dont les règles de protection des données s’appliquent à l’IA. Il faut également plus de clarté sur les implications de la prise de décision automatisée et du droit à un examen humain lorsque l’IA est utilisée.
- Évaluer si l’IA fait de la discrimination – la prise de conscience du potentiel de discrimination de l’IA, et de son impact, est relativement faible. Cela nécessite davantage de financement de la recherche pour examiner les effets potentiellement discriminatoires de l’IA afin que l’Europe puisse s’en prémunir.
- Créer un système de surveillance efficace – l’UE devrait investir pour responsabiliser les entreprises et les administrations publiques lors de l’utilisation de l’IA. Les autorités doivent veiller à ce que les organes de contrôle disposent des ressources et des compétences adéquates pour faire leur travail.
Dans ce rapport, on trouve de nombreuses informations, tel ce tableau résumant l’utilisation réelle de L’IA par pays :
La France ne figure qu’en milieu de tableau, même si les écarts sont très resserrés et si une partie des chiffres n’est qu’une prévision.
On apprends aussi dans ce rapport quels sont les termes les plus souvent cités pour les utilisations en cours.
Il figure dans le nuage de mots ci-après :
Nous invitons tous les professionnels concernés à découvrir ce rapport.
Pour en savoir plus :
Vous pouvez télécharger le rapport complet, en anglais
|||