jeudi, juin 13, 2024
AccueilActualitéChatGPT : La grosse alerte lancée par les employée d'OpenAi sur des...

ChatGPT : La grosse alerte lancée par les employée d’OpenAi sur des accords curieux signés avec la firme

Alertes éthiques en IA : Des employés réclament leur droit à la parole.

Dans un monde où l’intelligence artificielle (IA) se développe à une vitesse vertigineuse, la question de la sécurité et de l’éthique de ces technologies devient de plus en plus pressante. Récemment, un groupe d’employés actuels et anciens d’OpenAI et Google DeepMind a lancé un appel urgent pour une protection accrue contre les représailles lorsqu’ils expriment publiquement leurs inquiétudes. Plongeons dans les profondeurs de cette problématique brûlante qui pourrait redéfinir l’avenir de la technologie.

Lire aussi :

L’appel à la transparence

Les signataires de la lettre publique, composée de treize anciens et actuels employés de ces géants de la tech, dont sept ont choisi de révéler leur identité, soulignent un manque criant de supervision gouvernementale efficace. Ils mettent en lumière le rôle crucial que peuvent jouer les employés pour rendre ces entreprises responsables devant le public. Cependant, des accords de confidentialité stricts limitent leur capacité à partager leurs préoccupations, les enfermant dans un silence souvent contraint.

Tempête économique à l’horizon avec l’imposition de droits de douane sur les véhicules électriques chinois en Europe

Conflits internes et réticences

La controverse ne cesse de croître autour d’OpenAI qui, après avoir dissous une de ses équipes de sécurité les plus en vue, a été confrontée à plusieurs départs notables. La firme est également critiquée pour avoir demandé à ses employés de signer des accords de non-dénigrement liés à leurs parts dans l’entreprise, ce qui pourrait les priver de bénéfices substantiels s’ils choisissent de parler.

La peur de répercussions

Jacob Hilton, un ancien employé d’OpenAI qui a signé la lettre, a exprimé sur les réseaux sociaux que bien que la politique de non-dénigrement ait été amendée, la peur de représailles telles que le licenciement ou des poursuites judiciaires reste une réalité palpable pour beaucoup. Ce climat de peur compromet la capacité des employés à partager librement leurs inquiétudes sur des plateformes externes.

Réactions des entreprises

En réponse aux critiques, un porte-parole d’OpenAI a affirmé que l’entreprise est fière de son bilan en matière de fourniture de systèmes d’IA parmi les plus sûrs et les plus compétents. Il souligne également l’importance d’un débat rigoureux étant donné l’enjeu de cette technologie, et confirme l’engagement continu de l’entreprise à collaborer avec les gouvernements et la société civile. Google, pour sa part, n’a pas immédiatement répondu aux demandes de commentaires.

Propositions pour un changement

Dans leur lettre, les employés demandent aux entreprises d’IA de s’engager à interdire les accords de non-dénigrement pour les préoccupations liées aux risques et de créer un processus anonyme vérifiable pour que le personnel puisse soulever des problèmes auprès des conseils d’administration et des régulateurs. Ils plaident également pour que les entreprises s’abstiennent de toute représaille contre les employés qui partagent publiquement des informations sur les risques, après avoir épuisé les autres processus internes.

Perspectives d’avenir et inquiétudes

Daniel Kokotajlo, un autre ancien employé d’OpenAI, exprime des inquiétudes quant à la préparation des entreprises aux implications de l’intelligence générale artificielle (AGI), une forme hypothétique d’IA qui pourrait surpasser les capacités humaines dans de nombreux domaines. Selon lui, il existe une chance sur deux d’atteindre l’AGI d’ici 2027, ce qui soulève des questions cruciales sur la transparence et la préparation des entreprises.

Insolite : Ces briques écologiques dignes d’un Lego et utilisables pour la construction de maison résistent aux bulldozers

Cet article explore les tensions croissantes entre les employés des grandes entreprises d’IA et leur gestion des risques liés à la technologie. En mettant en lumière les efforts des employés pour garantir des pratiques plus transparentes et éthiques, il pose des questions essentielles sur le futur de l’IA et notre société. Les débats internes et les appels à la protection des lanceurs d’alerte soulignent l’urgence de repenser notre approche de la sécurité et de la réglementation de l’intelligence artificielle.

Source : South China Morning Post

Top Infos

Coups de cœur