L’intelligence artificielle pourrait conduire à un avenir orwellien si des lois pour protéger le public ne sont pas promulguées bientôt, selon le président de Microsoft, Brad Smith.
Smith a fait les commentaires au programme d’information de la BBC « Panorama » le 26 mai, lors d’un épisode axé sur les dangers potentiels de intelligence artificielle (IA) et la course entre les États-Unis et la Chine pour développer la technologie. L’avertissement intervient environ un mois après que l’Union européenne a publié un projet de règlement tenter de fixer des limites sur la façon dont l’IA peut être utilisée. Il existe peu d’efforts similaires aux États-Unis, où la législation s’est largement concentrée sur la limitation de la réglementation et la promotion de l’IA à des fins de sécurité nationale.
« Je me souviens constamment des leçons de George Orwell dans son livre ‘1984’ », a déclaré Smith. « L’histoire fondamentale était celle d’un gouvernement qui pouvait voir tout ce que tout le monde faisait et entendre tout ce que tout le monde disait tout le temps. Eh bien, cela ne s’est pas produit en 1984, mais si nous ne faisons pas attention, cela pourrait arriver en 2024. »
L’intelligence artificielle est un terme mal défini, mais il fait généralement référence à des machines capables d’apprendre ou de résoudre des problèmes automatiquement, sans être dirigée par un opérateur humain. De nombreux programmes d’IA reposent aujourd’hui sur l’apprentissage automatique, une suite de méthodes de calcul utilisées pour reconnaître des modèles dans de grandes quantités de données, puis appliquer ces leçons à la prochaine série de données, devenant théoriquement de plus en plus précises à chaque passage.
Il s’agit d’une approche extrêmement puissante qui a été appliquée à tout, de théorie mathématique de base à simulations de l’univers primitif, mais cela peut être dangereux lorsqu’il est appliqué aux données sociales, affirment les experts. Les données sur les humains sont préinstallées avec des préjugés humains. Par exemple, une étude récente dans la revue JAMA Psychiatrie ont constaté que les algorithmes destinés à prédire le risque de suicide fonctionnaient bien moins bien chez les Noirs et les Amérindiens/Autochtones de l’Alaska que chez les Blancs, en partie parce qu’il y avait moins de patients de couleur dans le système médical et en partie parce que les patients de couleur étaient moins susceptibles de recevoir un traitement et diagnostics appropriés en premier lieu, ce qui signifie que les données d’origine ont été faussées pour sous-estimer leur risque.
Les biais ne peuvent jamais être complètement évités, mais ils peuvent être résolus, a déclaré Bernhardt Trout, professeur de génie chimique au Massachusetts Institute of Technology qui dispense un cours professionnel sur l’IA et l’éthique. La bonne nouvelle, a déclaré Trout à 45Secondes.fr, est que la réduction des biais est une priorité absolue dans les universités et l’industrie de l’IA.
« Les gens sont très conscients de ce problème dans la communauté et essaient de le résoudre », a-t-il déclaré.
Surveillance gouvernementale
L’utilisation abusive de l’IA, en revanche, est peut-être plus difficile, a déclaré Trout. L’utilisation de l’IA n’est pas seulement un problème technique ; c’est tout autant une question politique et morale. Et ces valeurs varient considérablement d’un pays à l’autre.
« La reconnaissance faciale est un outil extraordinairement puissant à certains égards pour faire de bonnes choses, mais si vous voulez surveiller tout le monde dans la rue, si vous voulez voir tous ceux qui se présentent à une manifestation, vous pouvez mettre l’IA au travail », a déclaré Smith. la BBC. « Et nous voyons cela dans certaines parties du monde. »
La Chine a déjà commencé à utiliser la technologie de l’intelligence artificielle de manière à la fois banale et alarmante. La reconnaissance faciale, par exemple, est utilisé dans certaines villes à la place des billets dans les bus et les trains. Mais cela signifie également que le gouvernement a accès à de nombreuses données sur les mouvements et les interactions des citoyens, a révélé le « Panorama » de la BBC. Le groupe de défense IPVM basé aux États-Unis, qui se concentre sur l’éthique de la vidéosurveillance, a trouvé des documents suggérant des plans en Chine pour développer un système appelé « Une personne, un fichier », qui rassemblerait les activités, les relations et les convictions politiques de chaque résident dans un fichier gouvernemental. .
« Je ne pense pas qu’Orwell [have] imaginé qu’un gouvernement serait capable de ce genre d’analyse », a déclaré à la BBC Conor Healy, directeur de l’IPVM.
Le célèbre roman d’Orwell « 1984 » décrivait une société dans laquelle le gouvernement surveille les citoyens à travers des « écrans télé », même à la maison. Mais Orwell n’imaginait pas les capacités que l’intelligence artificielle ajouterait à la surveillance – dans son roman, les personnages trouvent des moyens d’éviter la vidéosurveillance, pour se faire dénoncer par leurs concitoyens.
Dans la région autonome du Xinjiang, où la minorité ouïghoure a accusé le gouvernement chinois de torture et génocide culturel, l’IA est utilisée pour traquer les gens et même pour évaluer leur culpabilité lorsqu’ils sont arrêtés et interrogés, a découvert la BBC. C’est un exemple de la technologie facilitant les violations généralisées des droits de l’homme : le Council on Foreign Relations estime qu’un million de Ouïghours ont été détenus de force dans des camps de « rééducation » depuis 2017, généralement sans aucune inculpation pénale ou voie légale pour s’échapper.
Repoussant
La réglementation potentielle de l’UE sur l’IA interdirait les systèmes qui tentent de contourner le libre arbitre des utilisateurs ou les systèmes qui permettent tout type de « scorage social » par le gouvernement. D’autres types d’applications sont considérées comme « à haut risque » et doivent répondre à des exigences de transparence, de sécurité et de surveillance pour être mises sur le marché. Ceux-ci incluent des choses comme l’IA pour les infrastructures critiques, l’application de la loi, le contrôle des frontières et l’identification biométrique, comme les systèmes d’identification faciale ou vocale. D’autres systèmes, tels que les chatbots du service client ou les jeux vidéo compatibles avec l’IA, sont considérés comme à faible risque et ne sont pas soumis à un examen minutieux.
L’intérêt du gouvernement fédéral américain pour l’intelligence artificielle, en revanche, s’est largement concentré sur l’encouragement du développement de l’IA à des fins de sécurité nationale et militaires. Cette focalisation a parfois donné lieu à des controverses. En 2018, par exemple, Google a tué son Project Maven, un contrat avec le Pentagone qui aurait analysé automatiquement les vidéos prises par des avions militaires et des drones. La société a fait valoir que l’objectif était uniquement de signaler des objets pour examen humain, mais les critiques craignaient que la technologie puisse être utilisée pour cibler automatiquement les personnes et les lieux pour les frappes de drones. Des lanceurs d’alerte au sein de Google ont mis le projet en lumière, entraînant finalement une pression publique suffisamment forte pour que l’entreprise annule l’effort.
Néanmoins, le Pentagone dépense désormais plus d’un milliard de dollars par an sur les contrats d’IA, et les applications militaires et de sécurité nationale de l’apprentissage automatique sont inévitables, étant donné l’enthousiasme de la Chine pour atteindre la suprématie de l’IA, a déclaré Trout.
« Vous ne pouvez pas faire grand-chose pour entraver le désir d’un pays étranger de développer ces technologies », a déclaré Trout à 45Secondes.fr. « Et donc, le mieux que vous puissiez faire est de les développer vous-même pour pouvoir les comprendre et vous protéger, tout en étant le leader moral. »
En attendant, les efforts pour freiner l’IA au niveau national sont menés par les gouvernements des États et locaux. Le plus grand comté de l’État de Washington, le comté de King, à seulement usage interdit par le gouvernement d’un logiciel de reconnaissance faciale. C’est le premier comté des États-Unis à le faire, bien que le ville de San Francisco a fait le même geste en 2019, suivi par une poignée d’autres villes.
Déjà, il y a eu des cas de logiciels de reconnaissance faciale conduisant à de fausses arrestations. En juin 2020, un Noir de Détroit a été arrêté et détenu pendant 30 heures en détention parce qu’un algorithme l’a faussement identifié comme suspect dans une affaire de vol à l’étalage. Une étude 2019 par l’Institut national des normes et de la technologie a révélé que les logiciels renvoyaient plus de fausses correspondances pour les Noirs et les Asiatiques que pour les Blancs, ce qui signifie que la technologie est susceptible d’aggraver les disparités dans le maintien de l’ordre pour les personnes de couleur.
« Si nous n’adoptons pas, maintenant, les lois qui protégeront le public à l’avenir, nous allons découvrir que la technologie va de l’avant », a déclaré Smith, « et il sera très difficile de rattraper son retard. »
Le documentaire complet est disponible sur YouTube.
Publié à l’origine sur 45Secondes.fr.
45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. ?