Avec un tel titre cette chronique ne s’annonce pas très excitante. Et pourtant si vous savez ce que sont ces 23 principes vous allez vous dire ‘enfin‘. Si vous ne connaissez pas ces 23 principes rentrons un peu dans les détails, vous verrez, ce n’est pas si inintéressant que cela. Ces principes sont tout simplement la première expression formelle d’une Éthique de l’Intelligence Artificielle.

Procédons par étapes :

Asilomar : Parc naturel maritime situé à côté de Pacific Grove, Californie. 1913 : construction d’un centre de conférence. 1975 : 1ère conférence d’Asilomar visant à établir un moratoire sur les manipulations génétiques (échec). Janvier 2017 : 2ème conférence d’Asilomar visant à créer une éthique de l’Intelligence Artificielle (succès).

Éthique de l’IA : volonté d’encadrer le développement de l’IA (transparence, respect de la dignité humaine, partage des données, interdiction des armes de destruction autonomes….). Au terme de cette conférence, 23 principes ont été édictés (cf. liste ci-dessous).

Signataires : Google (Alphabet), Facebook, Apple, Microsoft, IBM, Amazon… et à ce jour 3.800 chercheurs, enseignants, entrepreneurs dont Elon Musk, Stephen Hawking (liste complète ici).

Et la bonne nouvelle (selon nous) c’est que le 30 août dernier, l’État de Californie a décidé d’introduire ces 23 principes dans sa législation. En rappelant que la Silicon Valley se trouve en Californie. Évidemment nous attendons que le Parti Communiste Chinois, la Commission ou le Parlement Européen, la Russie….rejoignent le camp des ‘gentils’ et nous rassurent sur leurs intentions et l’utilisation potentielle de l’Intelligence Artificielle. Mais au moins c’est déjà un petit pas pour l’humanité en attendant un grand pas pour la planète.

 

Les 23 principes :

  1. Objectif des recherches : le but visé par les recherches en IA devrait être la création d’une intelligence artificielle bénéfique, et non une intelligence artificielle incontrôlable ;
  2. Investissements : les investissements dans l’IA devraient être accompagnés par un financement des recherches afin de garantir son usage bénéfique. Cela prend en compte les questions épineuses en matière d’informatique, d’économie, de loi, d’éthique et de sciences sociales telles que :
    • comment pouvons-nous rendre les futures IA suffisamment robustes afin qu’elles puissent exécuter les ordres qui leur sont donnés sans dysfonctionnement ou sans risque d’être piratées ?
    • comment pouvons-nous accroître notre prospérité grâce à l’automatisation tout en conservant les ressources humaines ?
    • comment pouvons-nous mettre à jour nos systèmes juridiques pour les rendre plus équitables et plus efficaces dans la gestion des risques associés à l’IA ?
  3. Relations entre les scientifiques et les juridictions : il devrait y avoir un échange constructif et sain entre les chercheurs et les décideurs de l’intelligence articificielle ;
  4. Culture ou esprit de recherche : une culture de la coopération, la confiance et la transparence devrait être encouragée entre les chercheurs et les développeurs de l’IA ;
  5. Prévention : les équipes de développement des systèmes d’IA doivent coopérer activement pour éviter d’être en porte à faux avec les normes de sécurité ;
  6. Sécurité : les IA devraient être sécurisées durant tout le long de leur durée de vie opérationnelle grâce à des caractéristiques vérifiables et applicables.
  7. Transparence s’il y a des dommages : lorsqu’un système d’IA cause des dommages, il devrait être possible de déterminer la cause ;
  8. Transparence judiciaire : l’implication d’un système autonome dans une quelconque prise de décision judiciaire doit être corroborée par des explications satisfaisantes et susceptibles d’être auditées par une autorité humaine compétente ;
  9. Responsabilité : les concepteurs et les constructeurs de systèmes d’IA avancés sont responsables des conséquences morales découlant de leurs utilisations abusives et de leurs agissements. ;
  10. Concordance de valeurs : les systèmes d’IA autonomes devraient être conçus de manière à ce que leurs objectifs et les comportements soient conformes aux valeurs humaines ;
  11. Valeurs humaines : les systèmes d’IA devraient être conçus et exploités de manière à être compatibles avec les idéaux de la dignité humaine, les droits, les libertés et la diversité culturelle ;
  12. Données personnelles : chaque personne devrait avoir le droit d’accéder, de gérer et de contrôler ses données personnelles, compte tenu de la puissance des systèmes d’IA à analyser et utiliser ces données ;
  13. Liberté et vie privée : l’application de l’IA aux données personnelles ne doit pas restreindre indûment la liberté réelle ou perçue des personnes ;
  14. Bénéfice partagé : les technologies basées sur l’IA devraient bénéficier à autant de personnes que possible. La valorisation de ces dernières devrait également s’ensuivre ;
  15. Prospérité partagée : la prospérité économique créée par l’IA devrait être largement partagée, cela au bénéfice de toute l’humanité ;
  16. Contrôle humain : les humains devraient être en mesure de choisir s’ils veulent oui ou non déléguer des tâches aux systèmes IA pour atteindre les objectifs qu’ils se sont fixés ;
  17. Anti-renversement : les pouvoirs qui sont conférés à quelqu’un du fait qu’il contrôle des systèmes d’IA très avancés devraient respecter et améliorer les processus sociaux et civiques sur lesquelles le bien-être de la société repose
  18. Course aux IA d’armement : une course armements dans les armes autonomes mortelles basées sur l’IA devrait être évitée ;
  19. Alerte sur les capacités : s’il n’y a pas de consensus, il est vivement conseillé d’éviter de faire des hypothèses fortes concernant les limites supérieures des capacités des futures IA ;
  20. Importance : les systèmes d’IA avancés pourraient favoriser un important changement dans l’histoire de la vie sur Terre ; en cela ils devraient donc être gérés avec soin et avec de gros moyens ;
  21. Risques : les risques susceptibles d’être causés par les IA, en particulier les risques catastrophiques ou existentiels, doivent faire l’objet de prévision afin d’atténuer leur impact ;
  22. Auto-développement : les systèmes d’IA conçus pour s’autoaméliorer ou s’autorépliquer, au risque de devenir très nombreux ou très avancés, doivent faire l’objet d’un contrôle de sécurité rigoureux ;
  23. Bien commun : les IA super intelligentes ne doivent être développées que pour participer à des idéaux éthiques largement partagés, et pour le bien-être de l’humanité. Par conséquent, elles ne devraient pas être destinées à un État ou à une entreprise.

 

 

Similar Posts