Libérez le mamelon : Facebook et Instagram ont demandé de réviser l’interdiction des seins nus | Méta

Facebook et la société mère d’Instagram pourraient bientôt libérer le mamelon. Plus d’une décennie après que les mères allaitantes ont organisé pour la première fois une «infirmière» au siège de Facebook pour protester contre son interdiction des seins, Le conseil de surveillance de Meta a appelé à une refonte des règles de l’entreprise interdisant les images de femmes torse nu – mais pas d’hommes.

Dans un décision daté du 17 janvier, le conseil de surveillance – un groupe d’universitaires, de politiciens et de journalistes qui conseillent l’entreprise sur ses politiques de modération de contenu – a recommandé que Meta modifie sa norme communautaire sur la nudité adulte et l’activité sexuelle “afin qu’elle soit régie par des critères clairs qui respecter les normes internationales des droits de l’homme ».

La décision du conseil de surveillance fait suite à la censure par Facebook de deux publications d’un compte géré par un couple américain transgenre et non binaire. Les messages montraient le couple posant seins nus, mais avec leurs mamelons couverts, avec des légendes décrivant les soins de santé trans et la collecte de fonds pour la chirurgie supérieure.

Les messages ont été signalés par les utilisateurs, puis examinés et supprimés par un système d’IA. Après que le couple a fait appel de la décision, Méta finalement restauré les poteaux.

Le conseil a constaté que “la politique est basée sur une vision binaire du genre et une distinction entre les corps masculins et féminins”, ce qui rend les règles contre le mamelon “peu claires” lorsqu’il s’agit d’utilisateurs intersexués, non binaires et transgenres. Il a recommandé que Meta “définisse des critères clairs, objectifs et respectueux des droits” lorsqu’il s’agit de modérer la nudité “afin que toutes les personnes soient traitées d’une manière conforme aux normes internationales des droits de l’homme”.

Lactivistes” a passé les années 2000 à tenter d’écraser l’image des seins comme étant intrinsèquement sexuels, et la campagne #FreetheNipple s’est généralisée en 2013. L’expression est entrée dans le langage pop-féministe en 2013 après que Facebook a retiré des extraits du documentaire de l’actrice/réalisatrice Lina Esco Free the Mamelon.

La campagne a obtenu un large soutien sur les campus universitaires et a été défendue par des célébrités telles que Rihanna, Miley Cyrus et Lena Dunham. Pas plus tard que la semaine dernière, Florence Pugh s’est adressée en portant une robe Valentino rose vif sur le tapis rouge, en disant: “Bien sûr, je ne veux pas offenser les gens, mais je pense que mon point est : comment mes mamelons peuvent-ils vous offenser à ce point ?”

En 2015, l’artiste basé à Los Angeles Micol Hébron a créé des autocollants de mamelons masculins – qui sont autorisés sur Instagram – afin que les utilisatrices d’Instagram puissent les superposer aux leurs pour se moquer de la disparité.

Hebron a été invité au siège d’Instagram en 2019 avec un groupe d’influenceurs pour parler de la politique de l’entreprise en matière de mamelons. “Au cours de cette réunion, nous avons appris qu’il n’y avait pas de personnes transgenres dans l’équipe chargée de la politique de modération du contenu, et j’ai également observé qu’il n’y avait pas de toilettes non genrées là-bas”, a déclaré Hebron. “Pour moi, c’était tout ce que j’avais besoin de savoir pour comprendre que la conversation sur le genre et l’inclusivité n’avait pas lieu chez Meta.” Un représentant de Meta a contesté la caractérisation de l’événement par Hébron, ajoutant : “Beaucoup de choses ont changé depuis 2019”.

Mais Hebron a déclaré qu’elle était “excitée” que le conseil de surveillance ait abordé la question du genre et de la discrimination fondée sur le sexe. “Au-delà du ‘laissons les femmes être seins nus’, ce qui n’est pas du tout mon intérêt, je pense qu’il est vraiment important de s’accrocher à l’objectif de permettre à tous les corps d’avoir une autonomie”, a déclaré Hebron. “Cela semble si frivole pour beaucoup de gens de parler de mamelons, mais si vous pensez à la façon dont les gouvernements du monde entier tentent de contrôler et de réprimer les corps d’identification féminine, les corps trans ou les corps non binaires, ce n’est pas le cas.”

une femme porte un t-shirt qui dit
L’expression “Free the Nipple” est devenue courante après que Facebook ait retiré des extraits d’un documentaire du même nom. Photographie : Billy Farrell/BFAnyc.com/Rex

Meta “se félicite de la décision du conseil d’administration dans cette affaire”, a déclaré un représentant dans un communiqué notant que les photos du couple avaient été rétablies “avant la décision”.

“Nous évoluons constamment nos politiques pour aider à rendre nos plateformes plus sûres pour tout le monde”, a ajouté le porte-parole. “Nous savons que davantage peut être fait pour soutenir la communauté LGBTQ+, et cela signifie travailler avec des experts et des organisations de défense des LGBTQ+ sur une série de problèmes et d’améliorations de produits.”

Meta a 60 jours pour répondre publiquement aux recommandations du conseil.

Alors que les défenseurs peuvent accueillir favorablement l’idée d’un mamelon plus libre en ligne, des questions subsistent quant à la manière dont les systèmes de modération de contenu automatisés de Meta pourront appliquer une nouvelle politique sur les mamelons. Une collecte de fonds en couple pour s’offrir une opération chirurgicale n’est pas la même chose qu’une personne sollicitant des relations sexuelles en ligne, mais l’IA de l’entreprise n’a pas reconnu la différence dans la publication au début. Alors, comment ces systèmes pourront-ils faire la différence entre un poste topless et du porno ?

“Le contexte est tout, et les algorithmes sont terribles en contexte”, a déclaré Emily Bell, directrice du Tow Center for Digital Journalism, au Guardian. “La question intéressante sera la tension sur la façon dont Meta peut créer de nouvelles règles sans ouvrir les vannes au porno, c’est pourquoi ces règles existent en premier lieu. Cela devrait être possible, mais je suis sceptique quant à savoir si la modération du contenu est automatisée. » (Bell a précédemment occupé plusieurs postes au Guardian, dont celui de directeur non exécutif du Scott Trust.)

Les utilisateurs de Facebook et d’Instagram peuvent également signaler les publications qui, selon eux, violent les politiques de l’entreprise, comme ils l’ont fait pour la photo qui a motivé la décision du conseil d’administration. “Il ne faut pas être un génie pour comprendre qu’il y a certains domaines des guerres culturelles où la modération de contenu est militarisée”, a déclaré Bell. “Un message sur la chirurgie supérieure n’aurait pas dû être signalé en premier lieu, mais il l’a été. Cela aurait pu être les actions d’un mauvais acteur anti-trans.

Jillian York, militante et directrice de la liberté d’expression internationale à l’Electronic Frontier Foundation, a ajouté qu’il était “difficile” pour les entreprises qui utilisent l’IA de prendre la bonne décision dans chaque scénario. “Par exemple, il n’est pas facile pour une technologie automatisée de décider qui est un adulte seins nus, par rapport à qui est un enfant seins nus”, a-t-elle déclaré. “L’IA peut être en mesure de faire une distinction entre un jeune de neuf ans et un jeune de 26 ans, mais qu’en est-il d’un jeune de 17 ans et d’un jeune de 18 ans ?”

Sarah Murnen, professeur de psychologie Samuel B Cummings II au Kenyon College, a déclaré que le mouvement Free the Nipple avait autrefois centré les femmes blanches et cisgenres – mais que cela changeait. “Quand nous avons parlé de cela comme d’un problème concernant les femmes cis, cela semblait moins important, potentiellement, qu’il ne l’est maintenant avec les personnes trans qui veulent être ouvertes sur leur corps, alors que le sentiment anti-trans est à son plus haut niveau”, dit-elle.

Maintenant, il a été conseillé à Meta d’assouplir la manière restrictive et binaire dont il contrôle les corps en ligne. Mais beaucoup doutent rapidement du potentiel de l’IA pour protéger tous les utilisateurs. “C’est la grande leçon de tout cela : lorsque vous créez des systèmes automatisés, vous allez avoir des conséquences pour les personnes les plus marginalisées ou la minorité dans la société”, a déclaré Bell. “Ce sont les gens qui sont pénalisés par l’application d’un algorithme.”

Leave a Comment