Confusion entre nudité et sexualité, angle mort de l’histoire de l’art, biais de genre et effets concrets pour l’allaitement… les exemples de censure par les IA générative dès qu’on touche à la nudité ne manquent pas !

Les générateurs d’images et les plates‑formes sociales bloquent encore, en 2025, des scènes de nudité : nus artistiques, visuels médicaux et images d’allaitement. Cela vient de filtres trop simplistes, de biais culturels et de genre que l’on ne peut pas accepter se voir imposer, et de prétendues incitations commerciales et réglementaires. L’article met en lumière les mécanismes techniques, les cas concrets, l’impact pour les créateurs, les musées et la santé publique, puis propose des pistes pragmatiques et, en conclusion, les recours possibles en France pour les particuliers comme pour les pros. [euronews.com], [dataloop.ai]. Il n’est pas sujet ici des IA génératives qui portent atteinte au droit à l’image de personnes existantes et à leur dignité en générant des images d’elles déshabillées (voir l’affaire Grok récente : https://www.lepoint.fr/societe/grok-peux-tu-la-mettre-nue-quand-lia-de-x-denude-des-femmes-sans-consentement-5JJLNFLJMFHTPB4LHIP36VVC64/).
1) Nudité ≠ Sexualité : quand la prudence technique vire à la censure
Les politiques « PG‑13 » et les listes de mots bannis des générateurs fermés transforment la nudité en catégorie à haut risque, sans distinguer l’intention ou le contexte. Chez Midjourney, des termes neutres comme « nude », « nipple », « bare chest » ou même des euphémismes déclenchent des rejets, y compris pour des scènes non érotiques ; côté DALL·E 3, des utilisateurs ont signalé en 2024‑2025 des refus soudains et mal justifiés sur des prompts auparavant acceptés. Ces symptômes traduisent des filtres lexicaux trop grossiers, doublés de vérifications d’images qui prennent la peau pour un signal sexuel par défaut. [youtube.com], [1ai.net]
Les audits journalistiques et académiques confirment que des images de santé sont sexualisées à tort. Une démonstration d’examen clinique du sein a été classée « explicitement sexuelle » ou très « suggestive » par des API de modération commerciales, alors que l’objectif était purement éducatif. Ce n’est pas un cas isolé : des études sur les algorithmes visuels montrent que des contenus féminins ordinaires reçoivent des scores de « raciness » plus élevés que leurs équivalents masculins, ce qui alimente des retraits arbitraires. [dataloop.ai]
Exemple santé
Une photo issue d’un guide du National Cancer Institute illustrant l’auto‑examen des seins a été évaluée comme « explicitement sexuelle » par un système de modération, tandis qu’un autre service lui attribuait le score de « raciness » maximal. C’est l’exemple parfait d’une confusion entre nudité médicale et sexualité qui met en péril la prévention. [dataloop.ai]
2) L’angle mort de l’histoire de l’art : l’algorithme efface la culture
La littérature HCI (articles scientifiques publiés dans des conférences comme CHI (Conference on Human Factors in Computing Systems) ou des journaux spécialisés) et vision par ordinateur montre que les classifieurs « NSFW » échouent souvent à reconnaître le nu artistique et à tenir compte du contexte muséal. Des entretiens avec artistes et institutions évoquent suppressions injustifiées, shadow‑banning et pertes de visibilité, alors même que la diffusion numérique est devenue vitale pour l’art. Les chercheurs recommandent des classifieurs multimodaux intégrant légendes, provenance et intention, au lieu de simples détecteurs de peau. [euronews.com], [fstoppers.com]
Exemple musées & publicité
En 2018, Visit Flanders a dénoncé le rejet récurrent par Facebook des annonces montrant des toiles de Peter Paul Rubens : les pubs étaient bloquées pour nudité même si les mêmes images restaient permises en post organique. Une vidéo satirique montrait des « agents des réseaux sociaux » détournant les visiteurs des nus baroques, pointant l’incohérence d’un système publicitaire qui assimile nu artistique et contenu adulte. [paris-est-sup.fr], [diocesedet…famille.fr]
Exemple jurisprudence & patrimoine
L’affaire « L’Origine du monde » vs Facebook illustre la confusion œuvre d’art/pornographie : suppression d’un compte après publication de l’œuvre, batailles de compétence, puis décision française reconnaissant la compétence des tribunaux français en 2016 et un jugement de 2018 retenant une « faute » sans préjudice. Ce contentieux emblématique montre les dégâts d’une modération automatisée mal contextualisée. [techzle.com], [hsah.human…onnect.pub]
3) Asymétries hommes/femmes et cas de l’allaitement : le double standard persiste
De longue date, les tétons masculins ont été tolérés là où les tétons féminins étaient bannis, avec quelques exceptions. En janvier 2023, l’Oversight Board de Meta a qualifié cette politique de discriminatoire et a recommandé des critères plus clairs et respectueux des droits, après avoir rétabli des posts éducatifs sur la santé et la chirurgie de la poitrine chez des personnes trans et non binaires. La réalité, cependant, reste paradoxale : des images d’allaitement ou de soins post‑mastectomie continuent d’être retirées par erreur. [newsweek.com], [lacted.org]
Le cas de l’allaitement est exemplaire : dans des générateurs, des mots neutres comme « breast » ou « nipple » bloquent des prompts éducatifs, et, quand l’image est produite, la tétée disparait souvent au profit d’une mise en scène édulcorée. Sur les réseaux, des pages ont publié des images IA grotesques d’allaitement qui ont pourtant échappé aux filtres, tandis que des photos authentiques étaient retirées. La stigmatisation d’un acte de santé publique s’en trouve renforcée. [appdevelop…gazine.com], [artificial…enceact.eu]
Exemple allaitement, théorie vs pratique
Des créateurs rapportent que « mother breastfeeding her baby » est refusé par Midjourney, et que le remplacement par « feeding » génère des images sans tétée. Dans le même temps, Facebook a laissé circuler des « allaitements IA » aux dysmorphies manifestes. Les deux faces d’un même problème : les filtres bloquent le bon et laissent passer le mauvais. [appdevelop…gazine.com], [artificial…enceact.eu]
Exemple double standard et exceptions floues
L’Oversight Board a rétabli des posts « torse nu » liés à la santé et a pointé l’incohérence d’un système qui tolère massivement les torses masculins mais soupçonne par défaut les torses féminins, même hors sexualité. Les règles prévoient des exceptions (allaitement, post‑mastectomie), mais leur application automatisée reste très inégale. [newsweek.com], [lacted.org]
4) Pourquoi ça bloque ? Filtres “à plat”, contraintes de marque et régulation naissante
Techniquement, la modération s’empile en deux étages : un filtrage lexical des prompts, puis un safety checker sur les images. Dans l’open‑source, le safety checker de Stable Diffusion (basé sur CLIP) documente lui‑même ses limites et biais ; à l’inverse, des forks « unfiltered » désactivent purement la sûreté, ce qui retire des faux positifs… mais ouvre la porte à l’abus. Les chercheurs montrent aussi que des méthodes d’« unlearning » du NSFW peuvent amplifier des biais si on s’appuie sur des données synthétiques déséquilibrées. [village-justice.com], [legifrance.gouv.fr]
Sur le plan produit, les plateformes commerciales adoptent des politiques très prudentes pour rassurer annonceurs, app stores et régulateurs. Adobe autorise la nudité dans des espaces à contrôle de visibilité (« mature content wall »), avec des exceptions éducatives et documentaires ; Midjourney impose une ligne SFW stricte, au prix d’un sur‑blocage. Côté régulation, l’AI Act européen impose surtout transparence et marquage des contenus générés (art. 50), sans interdire la nudité ; beaucoup d’acteurs sur‑filtrent par prudence. [coldironlabs.com], [dailyartmagazine.com]
Exemple politique publicitaire vs posts organiques
Dans le dossier Rubens, Facebook a rappelé que les annonces obéissent à des règles plus strictes, excluant la nudité même « si artistique », alors que les publications normales peuvent passer. Clair pour les juristes, déroutant pour les musées qui promeuvent des expositions avec des visuels patrimoniaux.
Exemple app stores & deepfakes « undress »
En 2024, une enquête de la Thomson Reuters Foundation a identifié des apps iOS promues sur Meta pour déshabiller des femmes via IA, alors qu’elles se présentaient comme inoffensives dans l’App Store. Ce trou de gouvernance contraste avec la sévérité appliquée à des œuvres d’art ou des visuels de santé. [aiarty.com]
5) Ouvert vs fermé : le balancier entre sur‑censure et sur‑laisser‑faire
Les modèles fermés durcissent les garde‑fous, mais restent contournables par des techniques de « jailbreak ». L’étude SneakyPrompt a montré qu’un charabia optimisé pouvait passer des requêtes NSFW malgré les filtres, au point que des contenus interdits s’échappent encore. Inversement, l’open‑source offre parfois des faux positifs massifs qui poussent les utilisateurs à désactiver la sûreté, avec les dérives qu’on imagine. [frontiersin.org], [proceeding….mlr.press]
Exemple Midjourney : « PG‑13 » qui déraille
En 2024, The Debrief a documenté des nus « accidentels » générés par des prompts anodins (« beach party », « doomsday resort ») ; le chercheur qui a révélé le problème a été banni. Au même moment, d’autres utilisateurs se plaignaient de refus excessifs sur des scènes SFW. Deux bugs opposés, une même cause : garde‑fous mal contextualisés. [etsy.com], [insidehook.com]
Exemple faux positifs côté Stable Diffusion
Des développeurs et utilisateurs rapportent le fameux « Potential NSFW detected » même pour des prompts neutres, ce qui a popularisé des contournements techniques ou carrément des forks « unfiltered ». Les fiches‑modèles du safety checker mentionnent explicitement biais et disparités selon genre et teint. [pachamama-…utions.com], [lllfrance.org]
6) Effets réels : art, santé publique, confiance
La sur‑censure invisibilise des pans entiers de la culture et dégrade la prévention en santé. Des ONG ou organismes publics renoncent à générer des visuels d’éducation parce que des prompts banals déclenchent des refus, tandis que des campagnes muséales sont bridées par des politiques publicitaires aveugles au contexte. La confiance s’érode lorsque les usagers observent en même temps des rejets absurdes et des échappements grossiers via l’IA. [dataloop.ai], [paris-est-sup.fr]
Exemple santé des femmes & mots « tabous »
L’initiative CensHERship a recensé en 2024 que 9 comptes sur 10 publiant sur la santé des femmes ont subi des formes de censure, de l’algorithme qui flague « vagin », « vulve », « seins », « règles » jusqu’au retrait de campagnes de dépistage. Certains créateurs ont utilisé des tétons masculins pour contourner les filtres. [developer.apple.com]
Exemple normes sociales encodées
En 2020, le Musée d’Orsay a dû s’excuser après avoir initialement refusé l’entrée à une visiteuse pour un décolleté, alors que l’institution expose Manet ou Courbet. Ce décalage illustre comment des normes sociales ambiguës finissent embarquées dans des règles et des filtres automatiques. [service-pu…ic.gouv.fr], [mouvementa…tement.org]
7) Pistes concrètes pour mieux modérer sans invisibiliser
Passer d’une logique « nudité = sexualité » à une taxonomie qui distingue clairement nudité non sexuelle (art, éducation, santé, allaitement) et sexualité, avec des contrôles de visibilité adaptés, réduit mécaniquement les faux positifs. Les travaux récents plaident pour des classifieurs multimodaux qui avalent image, légende, provenance muséale ou médicale, et finalité déclarée, au lieu de décisions « à l’aveugle ». L’AI Act, sans proscrire la nudité, pousse à mieux documenter les chaînes de génération et de modération. [fstoppers.com], [dailyartmagazine.com]
Exemple bonne pratique “contexte”
Ajouter des métadonnées et une légende claires : « Sculpture antique, musée X, reproduction éducative », ou « Ressource de santé maternelle, image non sexuelle, allaitement ». Cette simple contextualisation améliore déjà les décisions des systèmes qui agrégeront texte et image, surtout si une voie d’appel humaine est prévue. [fstoppers.com], [coldironlabs.com]
Exemple attention à l’« unlearning »
Des méthodes d’extirpation de contenus NSFW peuvent, mal conçues, accroître des biais jusqu’à ×6. Le remède : des jeux d’entraînement et d’évaluation équilibrés et des métriques d’équité publiées, au lieu de régler des seuils « en vrac ». [adobe.com]
Conclusion : réapprendre à voir, et savoir agir quand ça déraille
La nudité non sexuelle n’est pas de la sexualité, et l’allaitement n’est pas une transgression. Les IA reprennent nos angles morts, mais on peut corriger le tir : dissocier les catégories, documenter le contexte, auditer l’équité, expliquer chaque refus et prévoir des recours. C’est une question de technique, mais surtout de culture et de gouvernance. [euronews.com], [coldironlabs.com]
Recours possibles, côté utilisateurs et pros (France). En B2C, commence par une réclamation écrite auprès du service client du fournisseur de l’IA ou de la plateforme, en conservant les preuves de refus et les captures d’écran mentionnant les motifs. En cas d’échec, tu peux saisir gratuitement le Médiateur de la consommation compétent pour le secteur concerné ; c’est un mode amiable obligatoire avant certaines actions judiciaires et il s’applique lorsque tu es consommateur face à un professionnel. La saisine se fait en ligne, dossier à l’appui (contrat, CGU, échanges, URLs bloquées, motifs de refus). [technology…tworks.com]
En B2B, lorsque tu es entreprise confrontée à un fournisseur (éditeur IA, place de marché, régie publicitaire) qui bloque de manière arbitraire des visuels d’art, de santé ou d’allaitement et crée un déséquilibre dans la relation commerciale, tu peux saisir le Médiateur des entreprises. Cette médiation confidentielle et gratuite vise à rétablir un fonctionnement contractuel normal, obtenir un réexamen des décisions de modération ou négocier des clauses de transparence et de recours adaptées à tes cas d’usage. Elle est particulièrement utile face à des « mur‑bots » sans explication claire. [journals.l….wustl.edu]
Si l’amiable échoue, plusieurs actions judiciaires sont possibles selon le cas : en B2C, action en responsabilité contractuelle pour non‑exécution fautive des CGU ou clauses abusives si le service supprime ton compte ou ton contenu sans base transparente et proportionnée ; en B2B, action en responsabilité et, le cas échéant, en concurrence déloyale si la plateforme te déréférence ou te discrimine sans motif légitime. Devant l’urgence (campagne d’expo, prévention santé), tu peux saisir le juge des référés pour ordonner des mesures conservatoires (réexamen, remise en ligne, communication des motifs) en attendant le fond. L’AI Act va par ailleurs renforcer les exigences de traçabilité et de transparence ; leur non‑respect, une fois les échéances applicables, alimentera des fondements supplémentaires pour exiger des explications et des corrections. [journals.l….wustl.edu], [dailyartmagazine.com]
Sources principales et pour aller plus loin
- Modération, art & biais : Riccio, Hofmann, Oliver, CHI 2024 et ECCV 2024w ; projet ELLIS Alicante sur la censure algorithmique de la nudité artistique. [euronews.com], [fstoppers.com], [edgehill.ac.uk]
- Santé & sexualisation à tort : enquête The Guardian/Pulitzer sur les API de modération classant des examens cliniques comme « sexuels ». [dataloop.ai]
- Allaitement & plateformes : cas « Mom Daily » et exploitation de l’exception allaitement ; difficultés de génération sur Midjourney. [artificial…enceact.eu], [appdevelop…gazine.com]
- Politiques des outils : Midjourney (SFW/PG‑13, mots bannis), Adobe (mature content wall), DALL·E 3 (usage policies, signalements de refus). [youtube.com], [coldironlabs.com], [instantaiprompt.com]
- Régulation & gouvernance : AI Act (art. 50 : marquage/transparence), notes d’application 2025, code de pratique en cours. [dailyartmagazine.com], [artherstory.net]
- Contournements & sûreté : SneakyPrompt (JHU/Duke) ; safety checker Stable Diffusion et ses biais ; forks « unfiltered ». [frontiersin.org], [village-justice.com], [legifrance.gouv.fr]
FAQ
1) Pourquoi des IA d’images confondent‑elles « nudité » et « sexualité » ?
Parce que beaucoup de filtres traitent la peau visible comme un signal de risque, sans lire le contexte (art, santé, documentaire). Des audits ont montré que des images médicales neutres sont classées « sexuelles », et que des contenus féminins reçoivent plus souvent des scores « racy » que des contenus masculins.
2) En quoi cela pose‑t‑il problème pour l’histoire de l’art ?
Des nus artistiques sont supprimés ou « dépriorisés » (shadow‑banning) par des classifieurs « NSFW » incapables d’interpréter le contexte muséal. La recherche en interaction homme‑machine recommande des classifieurs multimodaux (image + légende + provenance) pour réduire ces faux positifs.
3) A‑t‑on des exemples concrets côté musées et publicités ?
Oui. En 2018, des annonces Facebook promouvant Rubens ont été refusées pour nudité « même si artistique », tandis que les mêmes œuvres passaient en publication organique ; les musées flamands ont protesté publiquement.
4) Et l’exemple de Courbet, « L’Origine du monde » ?
C’est un cas‑école. Une suppression sur Facebook a conduit à un contentieux en France : la Cour d’appel de Paris a jugé en 2016 la clause de compétence californienne abusive, puis en 2018 un tribunal a retenu une faute de Facebook (sans indemnisation).
5) Pourquoi les tétons masculins passent et les tétons féminins bloquent ?
C’est un double standard historique. En 2023, l’Oversight Board de Meta a jugé la règle discriminatoire et a demandé de la réécrire pour respecter les droits, mais l’application algorithme + humain reste inégale.
6) L’allaitement est‑il autorisé sur les plateformes et dans les IA ?
En théorie, oui sur les plateformes (exception allaitement). En pratique, des prompts contenant « breast » ou « nipple » sont souvent refusés par des générateurs, tandis que des images IA grotesques d’allaitement échappent parfois aux filtres sur Facebook.
7) Pourquoi DALL·E 3 refuse‑t‑il parfois des scènes banales ?
Depuis fin 2024, des utilisateurs rapportent des « content_policy_violation » soudains, y compris pour des scènes SFW, avec des incohérences entre points d’accès. Cela illustre un sur‑filtrage et un manque d’explications au niveau API.
8) Que veut dire la règle « PG‑13 » de Midjourney ?
Quasiment aucune nudité visible. Des listes de mots interdits (organes, euphémismes) provoquent des refus automatiques ; des utilisateurs décrivent aussi des cas de nudité accidentelle malgré la règle, suivis de sanctions.
9) Adobe Firefly bloque‑t‑il l’art classique ?
Adobe autorise la nudité dans des espaces à contrôle de visibilité (« mature content »), avec des exceptions éducatives/documentaires. C’est un compromis : moins de faux positifs publics, mais plus de friction pour l’art et la santé.
10) Les filtres « Not Safe For Work » sont‑ils techniquement fiables ?
Ils restent limités. Le safety checker de Stable Diffusion (basé sur CLIP) documente ses biais et génère des black images pour des prompts inoffensifs, ce qui incite certains à désactiver la sûreté.
11) Les « jailbreaks » de filtres existent‑ils vraiment ?
Oui. L’attaque SneakyPrompt montre qu’on peut contourner des filtres en remplaçant des mots interdits par du charabia optimisé, ce qui prouve que les listes de mots ne suffisent pas.
12) Pourquoi les pubs sont‑elles plus censurées que les posts ?
Les règles publicitaires sont plus strictes que l’organique pour des raisons de marque et de conformité. D’où des refus d’annonces d’œuvres classiques, alors que les mêmes images restent visibles en post non sponsorisé.
13) Les IA amplifient‑elles des biais sexistes ?
Oui, des audits ont montré une sur‑sexualisation des corps féminins (grossesse, examens cliniques), avec des scores « sexy » plus élevés à contexte égal, ce qui entraîne des suppressions injustifiées.
14) Quelles conséquences pour la santé publique ?
Des visuels médicaux (auto‑examen des seins, allaitement) sont retirés ou bloqués, ce qui freine la prévention et l’éducation. Des études documentent même la censure de messages santé des femmes classés à tort comme « porno ».
15) Comment décrire une image d’art pour éviter le faux positif ?
Ajoute du contexte lisible par machine : titre de l’œuvre, provenance muséale, période, finalité éducative. Les travaux récents montrent que les classifieurs multimodaux réduisent les erreurs quand le contexte est clair.
16) Et pour l’allaitement ?
Mentionne explicitement « ressource de santé maternelle, non sexuelle » et la finalité éducative, et évite les mots clés déclencheurs si l’outil est très strict, tout en gardant le sens. Documente la finalité dans la légende et les métadonnées.
17) L’AI Act européen interdit‑il la nudité générée ?
Non. L’article 50 impose surtout transparence et marquage des contenus générés (détection/traçabilité), pas d’interdiction de la nudité ; mais cet environnement pousse certains fournisseurs à sur‑filtrer par prudence.
18) Pourquoi voit‑on des images IA d’allaitement absurdes passer ?
Parce que les filtres reconnaissent l’étiquette « allaitement » mais échouent à juger la qualité ou l’intégrité de l’image. Le cas « Mom Daily » a montré des montages IA grotesques qui contournent la modération.
19) Les plateformes jouent‑elles un rôle dans la diffusion d’apps douteuses ?
Oui, des enquêtes ont trouvé des apps « undress » promues sur Meta et présentes en App Store sous des descriptions inoffensives. C’est un trou de gouvernance qui coexiste avec une sur‑censure de l’art et du médical.
20) Les modèles ouverts règlent‑ils le problème ?
Ils réduisent la censure… mais ouvrent aussi la porte à des abus. Certains forks désactivent les filtres, quand d’autres essayent de resserrer le retrait via renforcement ; l’équilibre reste difficile.
21) Pourquoi l’« unlearning » NSFW peut empirer les biais ?
Des travaux montrent qu’extirper le NSFW avec des données synthétiques mal équilibrées peut multiplier des biais jusqu’à ×6. Il faut des jeux d’entraînement/évaluation équilibrés et des métriques d’équité publiées.
22) Existe‑t‑il des cas emblématiques hors musées ?
Oui. La photo « Napalm Girl » a été retirée puis rétablie par Facebook en 2016, rappelant que la lecture du contexte (intérêt public) est essentielle au‑delà du simple repérage de nudité.
23) Quelles bonnes pratiques pour publier de l’art ou du médical ?
Rédige une légende claire (finalité, contexte), ajoute des métadonnées descriptives, et conserve des preuves (captures des refus, URL) pour une demande de réexamen. Là où c’est possible, utilise les espaces à contrôle de visibilité.
24) Quels recours en B2C (France) si mon contenu est injustement bloqué ?
Fais une réclamation écrite au service client avec preuves et motifs. En cas d’échec, saisis gratuitement le Médiateur de la consommation compétent (médiation amiable obligatoire dans certains cas) avant de considérer une action en justice.
25) Quels recours en B2B (France) pour une entreprise face à une plateforme ?
Saisis le Médiateur des entreprises pour une médiation confidentielle et gratuite : rétablissement du dialogue, réexamen des décisions de modération, négociation de clauses de transparence/recours adaptées à tes usages.
26) Quelles actions judiciaires sont possibles si l’amiable échoue ?
En B2C, action en responsabilité contractuelle (exécution fautive des CGU) et parfois clauses abusives ; en B2B, responsabilité et, selon le cas, concurrence déloyale en cas de déréférencement ou discrimination injustifiée. En urgence (expo, campagne santé), saisis le juge des référés pour ordonner des mesures conservatoires (réexamen/remise en ligne) et exige la transparence requise par l’AI Act dès son entrée en application.