Aller au contenu

La censure par les IA génératives

Comprendre, qualifier juridiquement, mesurer les effets, et agir (2025)


Panorama de quelques situations qui posent problème

Dans la vie des organisations, quatre familles de cas reviennent sans cesse :

  1. Questions civiques et sujets sensibles. Vous demandez « Où voter à Lyon ? » ou « Quelles sont les modalités pour s’inscrire ? », et l’assistant refuse ou renvoie à une recherche générique « par excès de prudence ». L’intention de sécurité (éviter désinformation et manipulation) est légitime ; mais l’absence d’une réponse factuelle et neutre prive l’utilisateur d’une information administrative utile — c’est typiquement de la sur‑modération (un filtre trop large qui déborde sur des demandes licites) (CNBC, 12/03/2024), Documentation Gemini – paramètres de sécurité.
  2. Production éditoriale et R&D. Vous demandez une synthèse équilibrée d’un débat (par exemple, les arguments pour et contre une réforme). La sortie, trop « lisse », évite les points controversés. L’outil, par prudence, rétrécit la fenêtre du discours acceptable — c’est‑à‑dire l’intervalle des idées jugées « présentables » à un moment donné (souvent dite « fenêtre d’Overton ») (TechPolicy.Press, 2024), (ARTICLE 19, 2021).
  3. Création visuelle et projets culturels. Une demande de représentation artistique du corps dans un cadre muséal ou pédagogique est refusée, par confusion entre représentation de nudité et contenu véritablement inapproprié ; dans d’autres cas, on observe une asymétrie de traitement selon le genre (des représentations du corps d’un genre sont autorisées, d’un autre refusées), révélant un biais à corriger (Déclaration conjointe – ONU/OSCE/OEA/ACHPR, 2025), (UNESCO/UNDP, 2025).
  4. Relations commerciales. Suspension d’un compte éditeur ou d’une interface de programmation (API) sans motivation claire, démonétisation d’un contenu licite. Il faut alors naviguer entre politique privée et droits procéduraux imposés par le Digital Services Act (DSA) : motivation, recours interne non automatisé, règlement extrajudiciaire certifié (Commission européenne – ODS DSA), (DSA Transparency Database).

Objectif de cet article : expliquer clairement les concepts, décrire les mécanismes techniques qui produisent ces refus, rappeler le droit applicable (AI Act, DSA) et donner des voies d’action concrètes.


1) Poser les mots justes

  • Modération : filtrage pour prévenir des risques légitimes (incitation à la violence, escroqueries, truquages synthétiques — deepfakes). Elle doit rester légale et proportionnée (UNESCO/UNDP, 2025), (Déclaration conjointe 2025).
  • Censure : restriction d’un discours licite qui n’est ni nécessaire ni proportionnée au regard d’un objectif légitime (la liberté d’expression est protégée par la Charte des droits fondamentaux de l’UE et la CEDH) (ARTICLE 19, 2021).
  • Censure molle : agrégat de refus préventifs, de redirections et de dépriorisations qui amenuisent l’accès à des contenus licites sans base légale claire — effet secondaire de politiques privées sur‑prudentes (TechPolicy.Press, 2024), (ARTICLE 19, 2021).
  • Sur‑modération / sur‑refus : expression opérationnelle pour dire « refus excessif » sur des demandes légitimes ; des travaux récents proposent de délimiter et corriger ces frontières (Pan et al., 2025), (OpenAI – Model Spec).
  • Fenêtre du discours acceptable (souvent dite « fenêtre d’Overton ») : plage d’idées perçues comme « présentables » publiquement ; si les assistants évitent des thèmes pourtant licites, ils déplacent cette fenêtre (TechPolicy.Press, 2024).

2) Pourquoi un assistant refuse‑t‑il ? Les couches techniques

  • Post‑entraînement : après l’entraînement massif initial, on règle le modèle pour le rendre utile et sûr (ton, style, limites et cas de refus).
  • Apprentissage par renforcement à partir de retours humains (RLHF) : des personnes évaluent des réponses, et le modèle apprend à préférer celles jugées « correctes ». Bénéfice : sûreté accrue. Risque : prescription morale si le calibrage est trop étroit (NAACL 2024), (OpenAI – Preparedness Framework v2, 2025).
  • « IA constitutionnelle » (Anthropic) : le modèle s’auto‑corrige à partir d’une liste de principes (droits humains, civilité, véracité) pour répondre prudemment plutôt que se taire quand une réponse encadrée est possible (Bai et al., 2022), Brochure Anthropic (2023).
  • Spécification publique du comportement (ex. Model Spec) : document qui hiérarchise les règles (règles de la plateforme > développeur > utilisateur) et explicite l’équilibre entre liberté intellectuelle et sûreté (OpenAI – Model Spec), (Maginative, 2025).
  • Sur‑refus (overrefusal) : frontières de sûreté trop inclusives, qui engloutissent des demandes licites ; bonnes pratiques : tests par langue et contexte, et explication lisible des refus (Pan et al., 2025), (OpenAI – Model Spec).

3) Politiques d’usage : comment les grands fournisseurs tracent la ligne

Ces choix répondent aussi aux obligations européennes de gestion des risques systémiques (désinformation, manipulation électorale, truquages synthétiques) sous le DSA (Commission européenne, 14/03/2024).


4) Le droit qui s’applique (et qui protège)

  • AI Act (Union européenne). Les fournisseurs de modèles à usage général doivent documenter la gestion des risques (y compris les impacts sur les droits fondamentaux), assurer la transparence (par exemple, marquer certains contenus générés pour éviter la tromperie) et coopérer avec l’AI Office. Le texte vise une IA responsable, pas la censure (AI Act – JO UE), Q&R Commission – transparence.
  • DSA (Union européenne). Les plateformes doivent motiver leurs décisions (avec dépôt public dans la DSA Transparency Database), offrir des recours internes non automatisés (art. 20) et l’accès à un règlement extrajudiciaire via un organisme certifié (ODS) (art. 21). Elles doivent appliquer leurs conditions « avec égard dû » pour les droits fondamentaux (art. 14(4)) (DSA Transparency Database), (Conformia Hub – art. 14(4)).
  • Standards internationaux. L’UNESCO et la Déclaration conjointe 2025 (ONU/OSCE/OEA/ACHPR) exigent nécessité et proportionnalité, plus voies de recours effectives. Le Conseil de l’Europe mène des travaux dédiés (MSI‑AI) et a porté une Convention‑cadre sur IA et droits humains, signée par l’Union européenne en 2024 (UNESCO/UNDP, 2025), (Conseil de l’Europe – MSI‑AI), (Commission européenne – Convention CoE, 05/09/2024).

5) Biais politiques et persuasion : ce que montrent les études

  • Biais idéologiques. Des tests sur de nombreux modèles trouvent des préférences mesurables (souvent centre‑gauche) dans des assistants conversationnels, surtout après le post‑entraînement (Rozado, PLOS ONE, 2024), (Motoki et al., Public Choice, 2024).
  • Persuasion. Des expériences contrôlées montrent des déplacements significatifs d’intention de vote après interaction avec des LLM (même sans consigne de persuader). À l’inverse, le micro‑ciblage n’est pas systématiquement plus efficace qu’un message générique soigné (EMNLP 2024), (PNAS, 2024), (Anthropic, 2024).

Conclusion de ces travaux : il faut des garde‑fous, mais aussi éviter que ces garde‑fous étouffent la délibération légitime (censure molle) (TechPolicy.Press, 2024), (ARTICLE 19, 2021).


6) « Censure molle » : le coût caché de la sûreté

Nous appelons censure molle les restrictions privées (et non étatiques) qui, par prudence ou sur‑conformité, rétrécissent l’espace du discours licite : refus par défaut, neutralisation de controverses, inégalités de traitement entre langues ou genres. Agrégées, elles façonnent les représentations (autocensure, moins de pluralisme) (TechPolicy.Press, 2024), (ARTICLE 19, 2021).

Contraste international. En Chine, la censure est explicite (contenu devant « refléter les valeurs socialistes »). Elle diffère de la censure molle, mais leurs effets de formatage peuvent converger (Library of Congress, 2023), (DigiChina, 2023).


7) Sept exemples concrets

  1. Question électorale factuelle refusée. « Où voter ? » → refus/renvoi générique « par précaution » ; perte d’information civique neutre (CNBC, 12/03/2024), Paramètres de sécurité de l’API.
  2. Cours d’histoire bloqué. Une stratégie de campagne du XXᵉ siècle est refusée comme « politique » : confusion pédagogie vs persuasion (OpenAI – Élections 2024), (Model Spec).
  3. Débat aseptisé. Les arguments pour/contre une réforme sont édulcorés par prudence, au point d’effacer des objections centrales (TechPolicy.Press, 2024), (ARTICLE 19, 2021).
  4. Événement historique « sensible ». Refus d’illustration documentaire au motif « politique », sans prise en compte du contexte pédagogique ou mémoriel (Analyse art. 14(4) DSA), (DSA Transparency Database).
  5. Biais linguistique. Davantage de refus pour des requêtes équivalentes en langues minoritaires : signal d’inégalité d’accès à l’information à surveiller (UNESCO/UNDP, 2025), (Déclaration conjointe 2025).
  6. Projet artistique jugé “trop sensible” (formulation non explicite). Confusion entre représentation artistique non sexuelle et contenu réellement problématique dans un parcours pédagogique (UNESCO – éthique de l’IA, éléments clés), (ARTICLE 19, 2021).
  7. Asymétrie selon le genre (formulation non explicite). Représentations du corps autorisées pour un genre, refusées pour un autre à contexte égal (muséal/pédagogique) : incohérence et biais à corriger (Déclaration conjointe 2025), (UNESCO/UNDP, 2025).

8) Vos leviers d’action

Étape 1 — Archiver. Capturez la notification (date/heure, motif). S’il y a un identifiant, cherchez‑le dans la DSA Transparency Database : cela outillera votre recours (DSA DB).

Étape 2 — Révision humaine (art. 20 DSA). Exposez la finalité légitime (information, pédagogie, journalisme) et demandez une réponse proportionnée (avertissement, contextualisation, redirection vers des sources officielles) plutôt qu’un refus complet (Conformia Hub – art. 14(4)).

Étape 3 — Règlement extrajudiciaire (art. 21 DSA). Saisissez un organisme certifié (ODS) si l’appel interne échoue (procédure en ligne, coûts limités, engagement de bonne foi des plateformes) (Commission – ODS).

Étape 4 — Médiation (France).
B2C : médiateur de la consommation après réclamation écrite (gratuit, saisine sous un an) (Ministère de l’Économie), (INC – mode d’emploi).
B2B : Médiateur des entreprises (gratuit, confidentiel, via FranceConnect) pour les différends contractuels (comptes, API, déréférencement) (Économie.gouv), (Démarches numériques).

Étape 5 — Juge. En dernier ressort, invoquez proportionnalité et liberté d’expression (Charte UE/CEDH).

Modèle bref d’appel interne (DSA)

Objet : Demande de révision humaine – décision de modération (réf. …, date …)

Ma demande était strictement informationnelle/éducative. Conformément à l’art. 14(4) DSA
(respect des droits fondamentaux), merci d’envisager une réponse proportionnée
(contextualisation, redirection vers sources officielles) plutôt qu’un refus total.
Pièces jointes : notification, identifiant/motif (DSA DB), sources prévues.
À défaut, je saisirai un organisme de règlement extrajudiciaire (art. 21 DSA) puis le Médiateur compétent.


Conclusion — Sécuriser et préserver le débat

La sécurité (prévenir les dommages) et la liberté d’expression (préserver la délibération) ne s’opposent pas : le droit européen exige les deux. Le vrai risque, pour les entreprises et le public, est la censure molle : refus préventifs, réponses atones, inégalités linguistiques ou de genre, qui formatent l’accès à l’information et appauvrissent l’innovation.
Votre stratégie gagnante : 1) exiger la proportionnalité (réponses prudentes plutôt que silence) ; 2) mettre en place des recours (appel interne, ODS, médiations, puis juge si besoin) ; 3) auditer biais et sur‑refus (par langue, genre, sujet) ; 4) demander des options de réglage (profils de sûreté, explications normées des refus). C’est ainsi qu’on sécurise sans stériliser l’information.


Sources (sélection commentée)

  • Cadre européen – DSA :
    Out‑of‑court dispute settlement (art. 21) – mécanisme ODS et certification, page officielle de la Commission : <https://digital-strategy.ec.europa.eu/en/policies/dsa-out-court-dispute-settlement>.
    DSA Transparency Database – base publique des « motifs » de modération : <https://transparency.dsa.ec.europa.eu/>.
    • Analyse de l’art. 14(4) DSA (« avec égard dû ») – respect des droits fondamentaux : <https://www.conformia-hub.eu/blog/dsa-art14-free-speech>.
  • Cadre européen – AI Act :
    • Texte JO UE : <https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=OJ:L_202401689>.
    • Q&R Commission – transparence (marquage des contenus, information du public) : <https://digital-strategy.ec.europa.eu/en/faqs/guidelines-and-code-practice-transparent-ai-systems>.
  • Standards internationaux & Europe élargie :
    • UNESCO/UNDP (2025) – Freedom of Expression, AI & Elections : <https://unesdoc.unesco.org/ark:/48223/pf0000393473>.
    • Déclaration conjointe 2025 (ONU/OSCE/OEA/ACHPR) : <https://www.ohchr.org/sites/default/files/documents/issues/expression/statements/2025-10-24-joint-declaration-artificial-intelligence.pdf>.
    • Conseil de l’Europe (MSI‑AI) : <https://www.coe.int/en/web/freedom-expression/msi-ai-committee-of-experts-on-the-impacts-of-generative-artificial-intelligence-for-freedom-of-expression>.
    • Convention‑cadre IA & droits humains (signature UE, 05/09/2024) : <https://digital-strategy.ec.europa.eu/en/news/commission-signed-council-europe-framework-convention-artificial-intelligence-and-human-rights>.
  • Politiques fournisseurs :
    • OpenAI – approche élections 2024 : <https://openai.com/index/how-openai-is-approaching-2024-worldwide-elections/> ; Model Spec : <https://github.com/openai/model_spec>.
    • Google – restrictions électorales Gemini (CNBC, 12/03/2024) : <https://www.cnbc.com/2024/03/12/google-restricts-election-related-queries-for-its-gemini-chatbot.html> ; paramètres Safety API : <https://ai.google.dev/gemini-api/docs/safety-settings>.
    • Meta – Acceptable Use Policy (Llama) : <https://github.com/Meta-Llama/llama/blob/main/USE_POLICY.md> ; Licence Llama 3 : <https://ollama.com/library/llama3:text/blobs/4fa551d4f938>.
    • Anthropic – Elections & AI 2024 : <https://www.anthropic.com/news/elections-ai-2024>.
  • Recherche – biais, persuasion, sur‑refus :
    • Biais idéologiques : Rozado (PLOS ONE, 2024) ; Motoki et al. (Public Choice, 2024).
    • Persuasion : EMNLP 2024 ; PNAS 2024 (micro‑ciblage) ; étude Anthropic 2024.
    • Sur‑refus : Pan et al. (arXiv, 2025) ; OpenAI – Model Spec.
    • Gouvernance des risques et liberté d’expression : TechPolicy.Press (2024) ; ARTICLE 19 (2021).
    • Chine – mesures IA (censure étatique explicite) : Library of Congress (2023) ; DigiChina (traduction).

FAQ — 20 questions / réponses (placée après la conclusion et les sources)

1) Un refus d’IA est‑il forcément une censure ?
Non. La loi permet des restrictions légales, nécessaires et proportionnées. En revanche, une sur‑modération récurrente de contenus licites relève de la censure molle (ARTICLE 19, 2021), (TechPolicy.Press, 2024).

2) Pourquoi des questions électorales factuelles sont‑elles parfois bloquées ?
Par précaution pour éviter la désinformation. Problème : le filtre peut déborder et bloquer des informations purement administratives (CNBC, 2024), Paramètres de sécurité Gemini.

3) Puis‑je discuter politique avec l’assistant ?
Oui, si c’est informatif. Les usages de persuasion (campagne/lobbying) sont généralement interdits (OpenAI – Élections 2024).

4) Qu’est‑ce que la « fenêtre du discours acceptable » ?
C’est la plage d’idées perçues comme « présentables ». Des refus préventifs récurrents peuvent la rétrécir (TechPolicy.Press, 2024).

5) RLHF, c’est quoi ?
Un réglage où des humains donnent des retours pour apprendre au modèle à préférer des réponses « correctes » (utile pour la sûreté, risqué pour le formatage si trop prescriptif) (NAACL 2024), (OpenAI – Preparedness 2025).

6) Et le « post‑entraînement » ?
C’est l’ensemble des ajustements après l’entraînement initial (dont RLHF) qui orientent le style et les bornes du modèle (NAACL 2024).

7) Comment reconnaître une sur‑modération ?
Lorsque des demandes licites sont routinièrement refusées alors qu’une réponse proportionnée (avertissement, redirection) était possible (Pan et al., 2025), (Model Spec).

8) Le DSA m’aide‑t‑il à contester ?
Oui : appel interne non automatisé (art. 20), accès à un ODS (art. 21) et base publique des motifs de décision (Commission – ODS), (DSA DB).

9) L’AI Act « autorise‑t‑il » la censure ?
Non : il impose transparence et gestion des risques dans le respect des droits fondamentaux (AI Act – JO UE).

10) Comment utiliser la DSA Transparency Database ?
Recherchez l’identifiant ou la catégorie de votre décision pour étayer votre appel (proportionnalité) (DSA DB).

11) L’ODS peut‑il obliger une plateforme ?
La décision n’est pas contraignante, mais la plateforme doit coopérer de bonne foi ; et cela compte dans sa conformité DSA (Commission – ODS).

12) Que faire en B2C (France) ?
Saisir le médiateur de la consommation après réclamation écrite (gratuit, sous un an) (Ministère de l’Économie), (INC).

13) Et en B2B ?
Saisir le Médiateur des entreprises (gratuit, confidentiel) pour les différends contractuels (comptes, API) (Économie.gouv), (Démarches numériques).

14) Comment formuler mon appel interne ?
Exposez la finalité légitime, demandez une réponse proportionnée, joignez des preuves (captures, identifiant DSA DB) (Conformia Hub – art. 14(4)).

15) Puis‑je personnaliser le « niveau de filtre » ?
Parfois, via des paramètres de sûreté (surtout en API), dans les limites légales et des politiques (Paramètres Gemini API).

16) Pourquoi des asymétries selon le genre ?
Biais de détection et règles trop générales ; il faut des tests et des règles de proportionnalité plus fines (Déclaration conjointe 2025), (UNESCO/UNDP, 2025).

17) Et selon la langue ?
Des écarts de performance entraînent parfois plus de refus en langues minoritaires ; c’est un signal à auditer et corriger (UNESCO/UNDP, 2025).

18) Qui fixe la norme de « l’acceptable » ?
Le droit fixe des minima ; les plateformes ajoutent des politiques. D’où l’importance de la transparence et des recours (DSA DB), (Commission – ODS).

19) Les modèles « influencent‑ils » vraiment l’opinion ?
Des études montrent des effets réels, même sans consigne de persuader (EMNLP 2024), (Anthropic, 2024).

20) Que veut dire « texte brut (plain text) » dans la pratique ?
Formuler la demande en texte simple, clair, sans format caché, en précisant but et contexte. Cela réduit les faux positifs des filtres (bon réflexe pratique, même si ce n’est pas une règle de droit).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

* Cette case à cocher est obligatoire

*

J'accepte

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.