dans

L’intelligence artificielle pourrait-elle mettre fin au monde tel que nous le connaissons?

L'intelligence artificielle pourrait-elle mettre fin au monde tel que nous le connaissons?

Un pionnier de la fortune dans la Silicon Valley, Paul LeBlanc, a découvert que la puissante IA qu’il a créée, NeXt, utilise les données pour recruter des alliés, manipuler les opinions et éloigner ceux qui se dressent sur son chemin. Cela pourrait être la fin de la civilisation telle que nous la connaissons. C’est l’argument de ‘NEXT’, une série que Fox lance le 2 novembre à 22h00, dans la clé de techno-thriller, avec des stars comme John Slattery (‘Mad Men’), Michael Mosley (Ozark) ou Eve Harlow (The 100) dans son casting.

Et nous, en tant que bons xatakers, devons nous poser la question évidente: Dans quelle mesure un tel avenir est-il plausible? La technologie envahit-elle déjà nos vies à l’échelle du pernicieux, nous transfigurant d’une manière que nous ne percevons pas encore? Une telle IA nous conduirait-elle, en théorie, à vivre dans le Xanadu parfaitement technifié? Ou peut-être l’effondrement, la lutte pour la survie face à un Skynet déchaîné?

Le paradoxe du progrès

“C’est un risque pour l’existence de notre civilisation”, a déclaré Elon Musk il y a quelques années dans ce réunion d’experts. “Tant que les gens ne verront pas des robots tuer des gens dans la rue, les dangers de l’intelligence artificielle ne seront pas compris”. Un commentaire fataliste, bien sûr, alors que les compagnies d’assurance, les cabinets d’avocats et les usines automobiles développent à la hâte des comités d’éthique sur l’IA.

Sur papier, qu’une machine prenne des décisions n’est qu’une bonne nouvelle. Et c’est parce que la prise de décision algorithmique peut, en théorie, surmonter ces limites attribuées aux humains, qu’il s’agisse de conflits d’intérêts, de crimes de corruption, d’égoïsme ou de biais cognitifs (qu’ils soient raciaux, de genre, etc.). C’est l’un des domaines de recherche les plus fertiles, avec des organisations et des conférences comme le FAT ML.

Cependant, comme nous l’avons déjà vu dans tant de publications, lorsqu’une IA apprend par exploration de données il finit par acquérir des préjugés humains. Et nous ne considérons pas encore ces nuances de langage non verbal. Confirmé Science, vérifiant que les machines finissaient par devenir sexistes et racistes. est une autre étude Il a intitulé ses résultats sous le titre «Influence raciale sur les perceptions automatisées des émotions».

A lire :  Ubisoft nous montre le dernier gameplay Immortals Fenyx Rising

Un biais racial, celui-ci, qui affecte l’interprétation visuelle, comme cela a déjà été le cas prouvé à travers le recadrage algorithmique effectuée par Twitter lors du rendu d’images partielles ou complètes. Si nous sommes imparfaits, qu’est-ce qui vous fait penser qu’une IA ne le serait pas? Avec une mise en garde: alors que les lycéens se creusent encore la tête pour essayer de résoudre le dilemme du tramway, un programmeur doit coder et fournir une réponse plus ou moins claire à ce désordre.

Le grand mensonge de la réalité

Nx Pilot Sc54 1278

Quelle est la probabilité qu’une IA se retourne contre nous? La série «NEXT» flirte et plonge dans cette idée de différentes manières. Les premiers aperçus passent inaperçus et ce n’est qu’une chaîne d’événements insolites se déchaînant que LeBlanc, le personnage joué par Slattery, s’associe à Shea Salazar (interprétée par Fernanda Andrade, “ The First ”), experte en cybercriminalité et alliée cruciale. pour éviter une catastrophe mondiale.

Oubliez les missiles sol-air traversant l’Atlantique et ces impulsions nucléaires après la guerre froide. Le nouvel effondrement se présente sous la forme de personnes se faisant face et le recrutement massif par la manipulation de l’information. Messages audio manipulés, vidéos irréelles, photos sans signification …

Vous semblez familier? En cette ère de post-vérité, l’impact de fausses nouvelles dans notre société, il peut être apprécié chaque jour. De réorienter un débat social autour un événement spécifique jusqu’à modifier le cours d’une élection présidentielle.

Nx Pilot Sc18pt 2052

Fiction pour parler de la réalité. Ce n’est pas une dystopie de voir comment les réseaux sociaux peuvent détruire les relations interpersonnelles, comment ils sont utilisés comme armes de lancement, outils de contrôle, Harcèlement sur internet et la violence sexiste. Comment ces fausses vies et où nous les utilisateurs construisons micro-moments de pur bonheur, fictionnalise chaque réponse, chaque pose finit par éroder notre perception de la réalité.

Alors ne pouvons-nous faire confiance à rien? Non, le célèbre Effet Mandela déjà clarifié la portée de la manipulation de l’information. Un groupe de personnes a déclaré que le politicien était décédé au milieu des années 1980 et tout le monde pensait qu’il l’était. Des années plus tard, ils se sont souvenus que c’était vrai. Nelson Mandela est décédé le 5 décembre 2013. Tromper le cerveau est trop facile, car théorisé pionnière Elizabeth Loftus.

A lire :  La même amibe qui a fait irruption à Tolède en 2018, vient de laisser 27 000 personnes sans eau au Texas: ce que nous savons de «l'amibe mangeuse de cerveau»

“Nous ne sommes pas si loin de l’effondrement de la réalité”, a écrit Franklin Foer pour Atlantic sur le faux profonds. Les photos manipulées ont cédé la place aux vidéos et audios manipulés, le tout généré en temps réel. Pour éclaircir davantage l’environnement, nous devons garder à l’esprit que les photos manipulées créent de faux souvenirs. Il est difficile de prédire ce qui va suivre.

L’intelligence artificielle pour tout

Conduite automatique, Internet des objets, réseaux intelligents, publicités personnalisées… L’IA est partout, sous forme d’algorithmes doux. Grâce à eux, nous avons réalisé une gestion plus intelligente de nos déchets, des économies d’éclairage ou une optimisation des processus routiniers et bureaucratiques.

Nt Sc41 0051

L’IA est un scénario plus complexe et plus vaste qu’il n’y paraît et cela inclut apprentissage automatique, grandes / petites données et l’analyse des données. La Commission européenne évalue les investissements à 20000 millions d’euros en glissement annuel – PwC est plus prudent, plaçant près de 16 000 millions cette valeur-

Il faudrait définir «contre» et «nous». Car, au-delà des trois lois fondamentales de la robotique, énoncées par Isaac Asimov en 1982 dans son ouvrage «Vicious Circle», il existe actuellement six axiomes pour protéger l’humanité. D’une part, ceux postulés dans le passé: ne pas interagir, rien pour nous nuire et ils devront avoir un interrupteur d’urgence, un réinitialiser. Mais au-delà de cela, on entre dans des marais éthiques: ils doivent avoir une assurance, des droits et des obligations, ils doivent payer des impôts, et ils doivent se soumettre à un procès en cas de violation de ces droits ou devoirs.

Pour une superintelligence, régner sur le monde est vraiment inhabituel. Il n’y a pas de précédent. Dans tous les cas, nous aurions à faire face à une utilisation négligente de celui-ci, un pirater et contre-attaque. Conclusion: mieux protéger et protéger les systèmes avec des systèmes redondants.

A lire :  Chrome vous indique désormais quelles publicités se trouvent sur chaque site Web, les informations qu'elles collectent et à quelles entreprises les envoient

Aucune IA n’est destinée à mettre fin à l’humanité. Cette fin ne pouvait être atteinte que par la prise de conscience. C’est-à-dire l’auto-reconnaissance du même, de l’environnement qui l’entoure et de sa position et de sa condition en son sein. Voici le grand classique que vous avez lu tant de fois dans Engadget: une IA n’a ni initiative, ni créativité, ni contribution sociale. Vous ne comprenez même pas vos objectifs. Regardez simplement GPT-3. Cette IA peut tout lire mais ne comprend rien. Ne contextualise pas.

À travers le l’apprentissage en profondeur, une IA peut en enseigner une autre et affiner ses fonctions. L’algorithme peut être affiné à un nouveau statut d’adaptabilité. Rien de plus. Collectifs comme Art Obvius ont montré que, dans des conditions spécifiques, une IA dégage des résultats intéressants d’un point de vue culturel. Ils peuvent, en fait, être des poumons créatifs infatigables et cracher livres entiers. Sur le plan social, il reste encore un long chemin à parcourir.

Qui est le suivant?

Créé par Manny Coto (producteur exécutif de ’24’) et réalisé par Glenn Ficarra (This is Us) et John Requa (This is Us), ‘NEXT’ coïncide avec la publication de ‘El silencio’, par le vétéran Don DeLillo , un livre qui pointe vers une réinitialisation catastrophique de l’ordinateur, un monde sans électricité. Ou avec le lancement du jeu vidéo ‘Watch Dogs: Legion’, qui présente une parabole sur un Londres légèrement futuriste mais hypervigilé où un groupe de pirates hors-la-loi s’infiltre dans le système pour le détruire de l’intérieur.

Telle une vibration constante, cette impulsion invisible flotte sous forme de débat culturel: nous sommes en sécurité? Il faudra être attentif le 2 novembre, à 22h00, sur FOX, pour voir jusqu’où.

Images | 20e Télévision FOX Entertainment.

45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. 🙂

Regardez La Série Culte X Men Maintenant Sur Disney +, Voici

Regardez la série culte X-Men maintenant sur Disney +, voici une nouvelle bande-annonce

Star Wars Célèbre 30 Ans De Thrawn Avec Style!

Star Wars célèbre 30 ans de Thrawn avec style!