91Ë¿¹ÏÊÓÆµ

Nouvelles

Qui fixe les limites d’utilisation de l’IA pour la sécurité nationale?

±Ê³Ü²ú±ô¾±Ã©: 9 March 2026

Dans un article récent dans The Conversation, la professeure examine les tensions grandissantes entourant l’utilisation de l’intelligence artificielle dans les contextes de guerre et de surveillance. Le débat a été soulevé lorsque le PDG de l’entreprise Anthropic a refusé que l’armée américaine fasse une utilisation sans restriction de ses systèmes d’IA. L’entreprise a imposé deux limites en interdisant l’utilisation de sa technologie pour la surveillance de masse de la population et le déploiement d’armes entièrement autonomes sans une supervision humaine. 

La professeure Vaast explique que les modèles d’IA avancés sont de plus en plus à même d’appuyer les opérations militaires en analysant les renseignements, en établissant l’ordre de priorité des cibles et en recommandant des actions stratégiques, même s’ils ne contrôlent pas directement les armes. Au même moment, les systèmes de surveillance de masse fondés sur l’IA menacent grandement la vie privée et les libertés civiles en combinant de vastes ensembles de données, la reconnaissance faciale et les algorithmes de prédiction pour surveiller la population. Ainsi, l’auteure soulève une question sur la gouvernance globale de l’IA : qui devrait fixer les limites de son utilisation pour la sécurité? Elle soutient qu’on ne peut pas s’en remettre à un libellé contractuel général comme « à toute fin légitime ». À mesure que des pays comme le Canada étendront leurs capacités relatives à l’IA et collaboreront avec des alliés comme les États-Unis, il sera nécessaire d’adopter des mécanismes de gouvernance solides afin d’instaurer des garde-fous en matière d’éthique qui encadreront les décisions des entreprises et des gouvernements. 

ɱ¹Ã©²Ô±ð³¾±ð²Ô³Ù²õ

Il n'y a aucun événement disponible.

Back to top