dans

Cet outil détecte si nos photos Flickr ont été utilisées pour entraîner des algorithmes de reconnaissance faciale

« Si vous êtes un utilisateur de Flickr et avez téléchargé des photos contenant des visages ou d’autres informations biométriques entre 2004 et 2020, vos photos peuvent avoir été utilisées pour former, tester ou améliorer les technologies de surveillance de l’intelligence artificielle à utiliser dans des applications académiques, commerciales ou connexes. Avec La défense « . Avec ces mots Adam Harvey et Jules LaPlace présentent « Exposing.ai« , un outil utilisé pour détecter cela: si vos photos Flickr font partie d’un ensemble de données d’entraînement pour les algorithmes d’intelligence artificielle.

L’outil n’est pas parfait. Selon ses créateurs, Exposing.ai sert à rechercher des photos téléchargées sur Flickr parmi des millions d’images, bien que cela ne fonctionne qu’avec des ensembles de données d’accès public qui incluent 1) des images Flickr et 2) des métadonnées, bien qu’à l’avenir, ils aient l’intention d’étendre l’outil pour analyser d’autres sources.

Voici comment fonctionne Exposing.ai

Exposing.ai est basé sur megapixels.cc, qui était un projet similaire avec le support de Mozilla. L’outil vous permet de trouver quelles photos Flickr ont été utilisées et dans quels ensembles de données en utilisant l’URL de l’image, le NSID, l’utilisateur ou un hashtag. Sur le Web, ils assurent que ils n’utilisent aucun type de reconnaissance faciale pour détecter les images et ils ne collectent aucune information à partir des recherches des utilisateurs.

Actuellement Exposing.ai contient six ensembles de données d’images avec 3630582 images au total. Les ensembles de données inclus sont DiveFace, FaceScrub, IJB, MegaFace (le plus grand avec différents), PIPA et VGG. Il contient également des informations sur d’autres données populaires, telles que Brainwash, Duke MTMC, Microsoft Celebs, TownCentre ou WildTrack, qui ont été abandonnées ou font l’objet d’une enquête pour faute professionnelle.

A lire :  "Cheap high-end": le charme de la gamme qui ne cesse de gagner en popularité

Si nous entrons une recherche et que l’outil détecte un positif, renverra les images en question et l’ensemble de données dont elles font partie, ainsi qu’un petit résumé de l’ensemble de données et des projets dans lesquels il a été utilisé. Par exemple, dans l’image ci-dessus, nous pouvons voir que la recherche d’un nom d’utilisateur renvoie 19 photos qui font partie de MegaFace.

De Exposing.ai, ils expliquent que « malheureusement, ne peut pas être supprimé des copies existantes des ensembles de données dans lequel vous avez été inclus. C’est l’un des principaux problèmes avec les jeux de données d’image, qui ne peuvent pas être contrôlés après la distribution initiale. « Ce que nous pouvons faire, c’est empêcher nos images d’être affichées dans Exposing.ai. Pour ce faire, il suffit d’aller à Flickr et masquer, supprimer ou rendre toutes les photos privées.

Plus d’informations | Exposing.ai

45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. 🙂

  • Dr Irena Eris Algorithm Crème Comblement des Rides pour les Yeux Contour des yeux
    La crème restaure la jeunesse de la peau autour des yeux, lisse intensément, améliore la tension de la peau et redonne au regard de la fraîcheur et de la brillance. Le Lipofiller contenu dans la formule réduit la visibilité des rides autour des yeux et les diminue jusquà 21% *. Grâce à sa texture veloutée et
  • Envie d'Images Shooting photo de 1h30 pour 1, 2 ou 2 à 5 personnes dès 29,90 € au studio Envie d'Images
    Immortaliser de beaux moments grâce à un shooting photo en solo, duo ou en groupe
  • Elodie Trillot Photographe Sessions photo de 30 ou 60 minutes pour 1 ou 2 ou 1 à 3 personne(s) dès 19,90 € au studio Elodie Trillot Photographe
    Des sessions photos visant à immortaliser de beaux moments de vie