Un évènement en matière de robotique est peut-être passé inaperçu auprès du grand public
Mais cela a fait l’effet d’une petite bombe en plein mois d’août dans le secteur de l’intelligence artificielle et de la défense.
Pour la première fois, un avion de chasse F16 piloté virtuellement par une intelligence artificielle a infligé un cuisant 5-0 à un pilote humain chevronné.
Ce qui est l’équivalent de la défaite de Gary Kasparov contre Big Blue aux échecs.
Nous sommes donc, en termes de robotique et d’éthique, au stade où tout devient possible.
Ce qui signifie aussi que tout devient potentiellement dangereux.
Les responsables de la défense américains, et d’autres experts, se sont donc exprimés sur le sujet, pour déterminer jusqu’à quel point il était souhaitable d’utiliser ces nouvelles technologies.
Il s’agit bel et bien d’un problème d’éthique, qui fait irruption dans un domaine assez peu réceptif, celui de la défense.
La robotique questionne les militaires comme les entreprises
Les décideurs sont désireux d’exploiter les avantages des capacités émergentes de l’IA. Mais les hauts responsables de la défense ont souligné à plusieurs reprises la nécessité de respecter les lois et les valeurs tout en atténuant les risques.
Le défi consiste «autant à prouver la sécurité de pouvoir le faire, que la capacité d’être en mesure de le faire», a déclaré le secrétaire adjoint à la Défense. Il s’exprimait lors des opérations spéciales de la National Defence Industrial Association / Low- Conférence sur les conflits d’intensité.
Alors que l’émergence de nouvelles technologies introduit souvent de nouvelles questions juridiques et éthiques, les analystes affirment que l’intelligence artificielle pose des défis uniques.
«Il s’agit d’une technologie de plus en plus intelligente, en constante évolution et de plus en plus autonome, agissant de plus en plus d’elle-même», a déclaré Peter W. Singer, Stratégiste du think tank “New America”. «Cela signifie que nous avons deux types de questions juridiques et éthiques avec lesquelles nous n’avons jamais vraiment été confrontés auparavant. Le premier est la permission des machines. Que peut faire l’outil seul? Le second est la responsabilité de la machine. Qui assume la responsabilité… de ce que l’outil fait seul? »
5 principes édictés par le Pentagone pour l’IA
En février, le ministère de la Défense américain a publié une liste de cinq principes éthiques de l’IA basés sur les recommandations du Defense Innovation Board et d’autres experts à l’intérieur et à l’extérieur du gouvernement. Les voici :
Le personnel militaire doit être responsable et exercer des niveaux de jugement et d’attention appropriés tout en restant responsable du développement, du déploiement et de l’utilisation des capacités d’IA, selon la liste.
La technologie doit être «équitable» et des mesures doivent être prises pour minimiser les biais involontaires.
Elle doit être traçable : «Les capacités d’IA du département seront développées et déployées de telle sorte que le personnel concerné possède une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables aux capacités d’IA, y compris avec des méthodologies, des sources de données et des procédures de conception transparentes et vérifiables. et la documentation », selon la liste.
Les systèmes doivent également être fiables : «Les capacités d’IA du département auront des utilisations explicites et bien définies, et la sûreté, la sécurité et l’efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie.»
Et enfin, ils doivent être gouvernables : «Le département développera des capacités d’IA pour remplir les fonctions prévues tout en possédant la capacité de détecter et d’éviter les conséquences involontaires, et la capacité de désengager ou de désactiver les systèmes déployés qui démontrent un comportement involontaire.»
«Nous travaillons actuellement avec des gens de RDT & E pour réfléchir à la façon dont nous pouvons intégrer les aspects éthiques dans leur faisceau de test» pour les logiciels et autres technologies, a déclaré Alka Patel, responsable de la politique éthique à JAIC*. «Nous examinons les aspects de test, les aspects algorithmiques, l’intégration du système, puis les aspects de l’association homme-machine. … Tous ces éléments sont des aspects critiques ou des domaines potentiels pour nous d’intégrer et de nous engager dans une perspective d’IA responsable. »
La démarche du pentagone en matière de robotique et d’éthique est intéressante, car elle rejoint le questionnement de nombreuses entreprises.
Si l’on dispose d’une technologie apportant un avantage concurrentiel certain, faut-il l’utiliser absolument, ou privilégier l’éthique ?
* Le Centre commun d’intelligence artificielle (JAIC) est le centre d’excellence en intelligence artificielle (IA) du ministère de la Défense des Etats Unis d’Amérique (DoD) qui fournit une masse critique d’expertise pour aider le Ministère à exploiter la puissance révolutionnaire de l’IA.
Pour en savoir plus :
l’article de National Defense (en anglais)