Les biais donnent à l’IA une mauvaise réputation, et il y a de bonnes raisons à cela. Avec l’utilisation croissante de l’IA pour recommander des produits, filtrer les CV, évaluer la notation du risque de crédit, etc, les biais de l’IA auront un impact sur nos entreprises et nos vies.
“Les préjugés au sein des outils d’IA sont potentiellement dangereux pour l’Asie – mais les préjugés concernant l’utilisation de l’IA en Asie pourraient l’être encore plus“, a déclaré le MIT Technology Review.
Son rapport a interrogé 871 hauts dirigeants d’entreprise dans 13 économies d’Asie. Ces participants à l’écosystème de l’IA sont conscients des préjugés intégrés – race, sexe ou statut socio-économique – dans les outils d’IA.
Ils sont également préoccupés par les dommages causés par l’IA en facilitant la surveillance excessive des communautés minoritaires ou l’exclusion économique.
Le mystère de la boîte noire
La préoccupation concernant le biais de l’IA s’est également intensifiée avec l’utilisation croissante des modèles de «boîte noire», où les algorithmes d’IA sont développés à l’aide de réseaux de neurones profonds, ce qui rend très difficile pour les scientifiques et les développeurs de données d’expliquer comment ils fonctionnent mathématiquement.
“Certains juristes soutiennent que les codes d’IA sont ambigus et manquent de responsabilité“, a déclaré le rapport du MIT Technology Review.
La méfiance s’intensifie lorsque les modèles de «boîte noire» sont combinés à l’automatisation, où les entreprises réagissent et se comportent de manière robotique en fonction des résultats des modèles d’IA.
Retrouver la confiance dans l’IA
Le mois dernier, l’Autorité monétaire de Singapour (MAS) a publié des livres blancs qui détaillent les méthodologies d’évaluation pour guider les institutions financières dans une utilisation responsable de l’IA basée sur les principes d’équité, d’éthique, de responsabilité et de transparence. Le gouvernement australien a également publié le cadre d’éthique de l’IA du pays en tant que lignes directrices pour les entreprises et les gouvernements pour concevoir, développer et mettre en œuvre l’IA de manière responsable. Les gouvernements de l’Inde, de la Malaisie et de la Chine ont également mis en place des agences pour élaborer des directives similaires.
L’effort croissant pour renforcer la confiance dans l’IA devrait doubler la taille du marché des solutions d’IA responsables en 2022, selon Forrester’s .
Gartner a également prédit que d’ici 2024, 60 % des fournisseurs d’IA incluront un moyen d’atténuer les dommages éventuels dans le cadre de leurs technologies.
Le biais de l’IA pourrait être souhaitable
L’IA éthique est une priorité.
Mais le biais de l’IA ne doit pas être confondu avec une IA irresponsable ou contraire à l’éthique, a noté Svetlana Sicular, vice-présidente analyste chez Gartner , car toutes les entreprises fonctionnent avec certaines formes de biais.
“Certaines formes de préjugés sont souhaitables – par exemple, éviter les grossièretés et favoriser un langage empathique, poli et patient sont des formes de préjugés envers ce que vous pensez à juste titre être important pour les conversations entre les systèmes activés par l’IA et les personnes“, a-t-elle noté.
Le biais de l’IA est souvent le résultat d’une combinaison de biais dans le monde réel, les données, les algorithmes et les affaires. Le vice-président du groupe Gartner, Anthony Bradley, l’a appelé les quatre étapes de l’IA éthique.
Il a noté que le biais réel dans le monde réel se reflète dans le biais des données. Lorsque l’algorithme est construit à partir de cet ensemble de données, les modèles créent une sortie qui expose le biais des données. Lorsque les entreprises agissent aveuglément sur le biais algorithmique, elles auront un impact et renforceront le biais du monde réel, rendant le biais de l’IA contraire à l’éthique.
Le biais de l’IA est simplement le reflet du biais dans le monde réel. Bradley a noté que les organisations devraient rechercher activement les biais contraires à l’éthique cachés dans les données et prendre des décisions commerciales éthiques à partir des algorithmes d’IA.
“Le biais est un effet naturel de l’apprentissage”, a ajouté Sicular. “Il ne peut pas être complètement éliminé, mais il peut être géré.”
Pour en savoir plus :
l’article en anglais de CDO trends