Les IA, et notamment les IA génératives qui ont occupé le champ médiatique ces derniers mois, sont souvent portées par des fondations.
De ces organismes dépend le respect de l’éthique ou non de ces outils. Or, la transparence de ces organismes est un critère fondamental de cette éthique.
C’est pourquoi l’université de Standford a créé un indice, le FMTI : Foundation Model Transparency Index.
Selon ses concepteurs, le manque de transparence des IA dans les technologies numériques pose des problèmes aux consommateurs, notamment avec les publicités trompeuses en ligne, les pratiques salariales floues dans le covoiturage et les schémas d’achat ambigus. Il est souligné que la transparence est essentielle pour protéger les consommateurs et soutenir les initiatives politiques dans le domaine de l’intelligence artificielle (IA), en particulier en ce qui concerne les modèles fondamentaux.
Ces modèles sont de plus en plus prioritaires dans la recherche sur l’IA et autres domaines scientifiques connexes, nécessitant une compréhension approfondie de leur fonctionnement, notamment des données qu’ils utilisent. De plus, la transparence des IA est également cruciale pour les décideurs politiques, car elle leur permet de poser les bonnes questions et de prendre des mesures appropriées concernant des questions telles que la propriété intellectuelle, les pratiques de travail, la consommation d’énergie et les biais potentiels des modèles.
Enfin, il est souligné que le grand public doit être bien informé sur les modèles sous-jacents des systèmes d’IA, ainsi que sur les moyens de signaler les dommages et de demander réparation en cas de besoin.
100 indicateurs de transparence des IA ont été déterminés
Pour construire le FMTI, Bommasani et ses collègues ont développé 100 indicateurs de transparence différents . Ces critères découlent de la littérature sur l’IA ainsi que du domaine des médias sociaux, qui dispose d’un ensemble de pratiques plus matures en matière de protection des consommateurs.
Environ un tiers des indicateurs portent sur la construction des modèles de base, incluant les données de formation, la main-d’œuvre impliquée et les ressources informatiques utilisées. Un autre tiers concerne les caractéristiques intrinsèques du modèle, comme ses capacités, sa fiabilité et les risques associés ainsi que leurs mesures d’atténuation. Le dernier tiers se concentre sur l’utilisation des modèles, notamment la politique de distribution, la protection des données des utilisateurs et la possibilité de recours pour les personnes concernées.
Ces indicateurs visent à équilibrer la transparence avec d’autres valeurs telles que la confidentialité, la sécurité et la compétitivité, évitant ainsi les conflits potentiels. Par exemple, certaines informations peuvent ne pas être divulguées, mais si l’entreprise justifie cette décision, elle peut toujours obtenir un point dans l’indice. Bien que l’indice ne vise pas à noter directement la responsabilité des entreprises, il vise à promouvoir une conduite plus responsable en offrant une transparence complète sur les pratiques des entreprises. Cette transparence peut servir de base pour les régulateurs et les législateurs pour identifier les changements nécessaires dans les politiques. Les chercheurs jouent un rôle crucial en facilitant ces changements politiques en mettant en lumière les faits pertinents.
Impact potentiel de l’indice de transparence des IA
Neuf des dix entreprises évaluées par l’équipe se sont volontairement engagées auprès de l’administration Biden-Harris à gérer les risques posés par l’IA. Bommasani espère que le FMTI récemment publié motivera ces entreprises à tenir leurs engagements en augmentant la transparence.
Il espère également que le FMTI contribuera à éclairer l’élaboration des politiques des gouvernements du monde entier. Exemple concret : l’Union européenne travaille actuellement à l’adoption de la loi sur l’IA. La position du Parlement européen au moment où il entame les négociations exige la divulgation de certains des indicateurs couverts par le FMTI, mais pas de tous. En soulignant les lacunes des entreprises, Bommasani espère que le FMTI aidera à cibler l’approche de l’UE sur le prochain projet. « Je pense que cela leur donnera beaucoup de clarté sur la situation, ce qui est bon et mauvais dans le statu quo, et ce qu’ils pourraient potentiellement changer avec la législation et la réglementation.»
Pour en savoir plus :
L’article de Standford University HAI
|