in

Instagram travaille sur un programme qui protégera les utilisateurs des photos nues non sollicitées dans leurs DM

Les gens qui envoient des nus non sollicités dans les DM sont vraiment la racaille de la terre. Ce n’était qu’une des nombreuses façons qui rendaient l’utilisation des plateformes de médias sociaux comme Instagram plutôt dérangeante, en particulier pour les femmes. Instagram, enfin, travaille sur une solution qui pourrait mettre un terme à cela.

Instagram travaille sur un programme qui protégera les utilisateurs des photos nues non sollicitées dans leurs DM

Jusqu’à présent, la seule façon de traiter les nus non sollicités était pour un utilisateur de signaler l’expéditeur à Instagram. Nous savons tous à quel point cela a généralement fonctionné. À présent, Instagram fonctionne sur un nouveau programme qui filtrerait les messages nus non sollicités envoyés par messages directs.

La découverte a été faite par Alessandro Paluzzi, un chercheur d’applications, plus tôt cette semaine. Selon un tweet qu’il a publié, Instagram travaillait sur une technologie qui couvrirait les photos pouvant contenir de la nudité, mais a noté que l’entreprise ne serait pas en mesure d’accéder aux photos elle-même.

Instagram a également confirmé la fonctionnalité à un certain nombre de publications. La société appartenant à Meta a déclaré que la fonctionnalité en était aux premiers stades de développement et qu’elle ne la testait pas encore.

« Nous développons un ensemble de contrôles utilisateur facultatifs pour aider les gens à se protéger des DM indésirables, comme les photos contenant de la nudité », a déclaré la porte-parole de Meta, Liz Fernandez, à une publication. « Cette technologie ne permet pas à Meta de voir les messages privés de qui que ce soit, et ils ne sont pas non plus partagés avec nous ou avec qui que ce soit d’autre. Nous travaillons en étroite collaboration avec des experts pour nous assurer que ces nouvelles fonctionnalités préservent la vie privée des personnes tout en leur donnant le contrôle sur les messages qu’elles reçoivent », a-t-elle ajouté.

Les captures d’écran de la fonctionnalité publiée par Paluzzi suggèrent qu’Instagram traitera toutes les images de cette fonctionnalité sur l’appareil, donc rien n’est envoyé à ses serveurs. De plus, vous pouvez choisir de voir la photo si vous pensez qu’elle provient d’une personne de confiance. Lorsque Instagram déploiera largement la fonctionnalité, ce sera un paramètre facultatif pour les utilisateurs qui souhaitent éliminer les messages avec des photos nues.

L’année dernière, Instagram a lancé des contrôles DM pour activer les filtres basés sur des mots-clés qui fonctionnent avec des mots, des phrases et des emojis abusifs. Plus tôt cette année, la société a introduit un filtre « Contenu sensible » qui maintient certains types de contenu – y compris la nudité et la violence graphique – hors de l’expérience des utilisateurs.

Les médias sociaux se sont mal attaqués au problème des photos de nus non sollicitées. Alors que certaines applications comme Bumble ont essayé des outils comme le flou alimenté par l’IA pour résoudre ce problème, Twitter a eu du mal à attraper le matériel d’abus sexuel d’enfants (CSAM) et la nudité non consensuelle à grande échelle.

En raison du manque d’étapes solides des plates-formes, les législateurs ont été contraints d’examiner cette question avec un œil sévère. Par exemple, le prochain projet de loi britannique sur la sécurité en ligne vise à faire du cyber flashing un crime. Le mois dernier, l’État de Californie aux États-Unis a adopté une loi qui permet aux destinataires de matériel graphique non sollicité de poursuivre les expéditeurs. L’État du Texas a également adopté une loi sur le cyber-clignotement en 2019, le considérant comme un « délit » et entraînant une amende pouvant aller jusqu’à 500 €.

45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. 🙂