in

L’ONU appelle à un moratoire sur les technologies d’intelligence artificielle qui menacent les droits humains

L’ONU a appelé mercredi à un moratoire sur les systèmes d’intelligence artificielle comme la technologie de reconnaissance faciale qui menacent les droits humains jusqu’à ce que des « garde-fous » soient en place contre les violations. La Haut-Commissaire des Nations Unies aux droits de l’homme, Michelle Bachelet, a averti que « les technologies de l’IA peuvent avoir des effets négatifs, voire catastrophiques si elles sont utilisées sans tenir suffisamment compte de la manière dont elles affectent les droits humains des personnes ».

Elle a appelé à des évaluations du risque que diverses technologies d’IA présentent pour des choses comme les droits à la vie privée et à la liberté de mouvement et d’expression.

Image représentative

Des outils d’IA défectueux ont conduit à refuser injustement des prestations de sécurité sociale à des personnes, tandis que des innocents ont été arrêtés en raison d’une reconnaissance faciale défectueuse.

Elle a déclaré que les pays devraient interdire ou réglementer fortement ceux qui posent les plus grandes menaces.

Mais alors que de telles évaluations sont en cours, elle a déclaré que « les États devraient imposer des moratoires sur l’utilisation de technologies potentiellement à haut risque ».

Présentant un nouveau rapport sur la question, elle a souligné l’utilisation de technologies de profilage et de prise de décision automatisée.

Elle a reconnu que « le pouvoir de l’IA au service des gens est indéniable ».

« Mais il en va de même de la capacité d’IA à alimenter les violations des droits humains à une échelle énorme sans pratiquement aucune visibilité », a-t-elle déclaré.

« Il faut agir maintenant pour mettre des garde-fous des droits de l’homme sur l’utilisation de l’IA, pour le bien de tous. »

Dommage des vies humaines

Le rapport, demandé par le Conseil des droits de l’homme des Nations Unies, a examiné comment les pays et les entreprises ont souvent mis en œuvre à la hâte les technologies de l’IA sans évaluer correctement leur fonctionnement et leur impact.

Le rapport a révélé que les systèmes d’IA sont utilisés pour déterminer qui a accès aux services publics, au recrutement et avoir un impact sur les informations que les gens voient et peuvent partager en ligne, a déclaré Bachelet.

Des outils d’IA défectueux ont conduit à refuser injustement des prestations de sécurité sociale à des personnes, tandis que des innocents ont été arrêtés en raison d’une reconnaissance faciale défectueuse.

« Le risque de discrimination lié aux décisions fondées sur l’IA – des décisions qui peuvent changer, définir ou nuire à des vies humaines – n’est que trop réel », a déclaré Bachelet.

Données discriminatoires

Le rapport a souligné comment les systèmes d’IA reposent sur de grands ensembles de données, avec des informations sur les personnes collectées, partagées, fusionnées et analysées de manière souvent opaque.

Les ensembles de données eux-mêmes peuvent être défectueux, discriminatoires ou obsolètes, et ainsi contribuer à des violations des droits, a-t-il averti.

Par exemple, ils peuvent signaler à tort un individu comme un terroriste probable.

Le rapport a soulevé une inquiétude particulière quant à l’utilisation croissante de l’IA par les forces de l’ordre, y compris en tant qu’outils de prévision.

Lorsque l’IA et les algorithmes utilisent des données historiques biaisées, leurs prédictions de profilage le refléteront, par exemple en ordonnant des déploiements accrus dans des communautés déjà identifiées, à tort ou à raison, comme des zones à forte criminalité.

La reconnaissance faciale à distance en temps réel est également de plus en plus déployée par les autorités du monde entier, selon le rapport, permettant potentiellement le suivi illimité des individus.

De telles « technologies de reconnaissance biométrique à distance » ne devraient pas être utilisées dans les espaces publics tant que les autorités n’ont pas prouvé qu’elles respectent les normes de confidentialité et de protection des données et n’ont pas de problèmes significatifs de précision ou de discrimination, a-t-il déclaré.

« Nous ne pouvons pas nous permettre de continuer à rattraper notre retard concernant l’IA – en permettant son utilisation avec des limites ou une surveillance limitées ou inexistantes, et en traitant les conséquences presque inévitables sur les droits de l’homme après coup », a déclaré Bachelet.

.

45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. 🙂