dans

«  Coded Bias  »: ce documentaire Netflix demande si les IA peuvent être biaisées, et la réponse est terrifiante

Tout commence par un constat inquiétant, mais qui peut se réduire à une anecdote: une chercheuse afro-américaine, Joy Buolamwini, se rend compte que un programme de reconnaissance faciale ne distingue ni n’identifie votre visage comme celui d’une personne quantifiable pour votre base de données. Mais c’est le cas lorsque vous mettez un masque neutre … et blanc.

C’est le point de départ d’un documentaire qui picore de nombreux sujets, tous de l’arbitraire et le manque d’éthique avec lesquels les algorithmes collectent des informations pour façonner leurs bases de données et les connaissances avec lesquelles ils font grossir différentes IA. Un arbitraire qui prend forme à partir de préjugés que nous avons tous et qui font, par exemple, et comme le dit l’un des participants à ce documentaire intéressant, le racisme est mécanisé et reproduit.

Dans un autre moment de l’action, le documentaire raconte l’expérience de une jeune femme chinoise avec le système de surveillance et d’identification constante qui existe dans son payset le système de crédit social. Ensuite, un expert américain affirme que le système n’est pas si différent de la surveillance occidentale des citoyens à travers les réseaux sociaux … mais qu’au moins en Chine le gouvernement le reconnaît.

De cette façon, le documentaire voyage continuellement à travers le monde, se posant des questions sur la vie privée, la technologie et comment les nouveaux modèles informatiques nous imposent des restrictions que, à bien des égards, nous pensions avoir surmontées. Le «biais codifié» n’a pas de discours univoque et incontestable, mais il jette au spectateur beaucoup de questions auxquelles nous devons nous poser de toute urgence (et surtout, y répondre).

Le racisme de l’algorithme

‘Biais codé’ fait partie d’une série de documentaires technologiques récents qui mettent en garde contre les dangers de problèmes très similaires: la perte d’intimité, comment la technologie pénètre par inadvertance dans des aspects qui appartenaient auparavant strictement à l’homme et, en général, le risque de perdre le contrôle de ce que nous avons nous-mêmes créé. Les deux «The Great Hack» et «The Social Media Dilemma», qui peuvent également être vus sur Netflix, se sont concentrés sur la désintégration incontrôlée du privé.

Le «  biais codé  » entre également dans ce sujet, mais dans le cadre d’un problème plus vaste: la menace abstraite d’un algorithme mathématique décentralisé qui apprend, mais qui apprend mal. Et oui, on entre dans la question de la manipulation électorale (pas toujours préméditée, et c’est l’une des questions les plus inquiétantes de l’ensemble: il n’y a pas de super-vilains ici, mais plutôt des échecs de la société dans son ensemble), mais aussi dans le l’érosion des droits individuels, comme l’utilisation par les forces de l’ordre britanniques ou américaines de bases de données basées sur des données préjudiciables.

C’est dans ces moments où le documentaire joue avec une énormité qui menace de frivoliser son discours. Les clins d’œil à des films comme l’adaptation de «1984» ou l’IA diabolique de «2001: A space odyssey», avec une voix robotique parlant à la première personne, sont amicaux mais se heurtent au sérieux solennel qui exige ce qui est dit. Heureusement, ‘Codified bias’ et sa réalisatrice Shalini Kantayya (l’une des experts qui semblent s’exprimer dans le film) n’oublient pas que nous parlons de technologie, mais surtout de son impact sur les gens.

«L’IA est basée sur des données, et les données sont le reflet de notre histoire», déclare Buolamwini dans le documentaire, et c’est l’essence du quelque chose. conclusion amère: les IA ont des préjugés parce que les gens sont pleins de préjugés. Mais de l’autre côté de la médaille, le documentaire est optimiste et se termine par un petit triomphe du chercheur contre la machinerie mathématique, avec un beau technopoème et avec un appel à l’action. Il est en notre pouvoir de freiner nombre des excès que dénonce le «parti pris codifié», et de ce point de vue, malgré les mises en garde, il sait aller plus loin que les autres documentaires de son style.

45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. 🙂

  • MONTEFARMACO OTC SpA Les patchs peuvent etre coupes callifughi Noksan
    Noksan Les patchs peuvent etre coupes callifughi CE medical, appareil de classe IIa. Patches qui sont coupes dans la forme et la taille souhaitee. Ils sont couverts par une couche de protection souple. Comment utiliser Avant d'appliquer le produit, nous recommandons un bain de pieds chaud. Sechez tres bien la partie et appliquer le produit sur les callosites; il devient doux, retirez-le en frottant avec une eponge abrasive ou tout simplement avec votre ongle. avertissements Ne pas utiliser sur la peau et les petites coupures ou des fissures enflammees, ou sur la peau non affectee par les cals. Il contient de l'acide salicylique et salicylates. Tenir hors de la portee des enfants. usage externe.
  • SAYL Module Vitrine réfrigérée double ouverture pour buffet BUF60IA
    Cette ligne de buffets modulaires est une réponse à des besoins de présentation et de conservation à température des préparations culinaires et boissons en buffet et libre-service. Très design, le buffet Sayl est idéale pour les hôtels et restaurants qui soignent leur décoration. Puisque la ligne est composée de
  • SAYL Module Vitrine réfrigérée double ouverture pour buffet BUF60IA
    Cette ligne de buffets modulaires est une réponse à des besoins de présentation et de conservation à température des préparations culinaires et boissons en buffet et libre-service. Très design, le buffet Sayl est idéale pour les hôtels et restaurants qui soignent leur décoration. Puisque la ligne est composée de