Les mots comptent. Sauf quand ils vous rendent invisibles.
Sur les réseaux sociaux comme dans la vie, les mots sont notre premier levier d’expression. Sur les plateformes, au-delà du simple post, les mots s’insèrent dans des carrousels, se prononcent dans des vidéos, s’entendent dans les stories.
Or, sur Instagram, LinkedIn ou Tiktok, certains mots sont aussi, de plus en plus souvent, des obstacles à notre visibilité. Pour celles et ceux qui veulent prendre la parole avec authenticité, c’est un comble !
👉 Dans cet article, j’explique pourquoi certains mots “bloquent” un post, ce que sont les stratégies de contournement, et pourquoi ce phénomène est inquiétant, mais aussi révélateur.
Quand écrire devient dangereux pour l’algorithme
Aujourd’hui, écrire des mots comme :
- viol
- dépression
- Palestine
- cancer
- suicide
- queer
- guerre
- règles … peut suffire à faire disparaître un post de vos fils d’actualité.
C’est ce qu’on appelle l’« algorithme shadow ban », un système qui, sans supprimer votre contenu, le rend invisible à la majorité des utilisateurs, voire empêche les interactions. On retrouve la même mécanique avec le bannissement de certains termes dans les sujets de recherche aux Etats-Unis, mais elle est mise en place de façon beaucoup plus insidieuse, car l’utilisateur n’est jamais averti qu’il a utilisé un mot interdit.
Pourquoi les réseaux sociaux bannissent-ils certains mots ?
Parce que les plateformes (Meta, TikTok, etc.) cherchent à “préserver un environnement publicitaire propre”.
Autrement dit : elles pénalisent les contenus susceptibles d’être associés à des sujets jugés sensibles… même s’ils sont informatifs, militants ou bienveillants. Sans même parler de politique, la vraie raison est financière.
Les stratégies de contournement : créativité sous contrainte
Pour rester visibles tout en continuant à parler de sujets essentiels, de nombreux créateurs développent des codes alternatifs :
- écrire : “v!0l” au lieu de “viol”, ou utiliser l’émoji 🟣
- dire “mal-être profond” plutôt que “dépression”
- remplacer “Palestine” par “P@lestine”
- ajouter un trigger warning
Ce sont des stratégies de contournement. Mises en place de façon spontanée par les utilisateurs pour tenter de rester visible malgré la sanction, elles montrent une chose : les gens veulent continuer à raconter, même quand l’algorithme leur met des bâtons dans les roues.
Le problème : l’auto-censure devient structurelle
Malgré la mise en place de ces stratégies, quand des mots deviennent “dangereux” pour la portée d’un message, la tentation est grande de les éviter totalement.
👉 On ne parle plus de santé mentale,
👉 On évite les sujets politiques,
👉 On adoucit le propos, même quand il est nécessaire.
Petit à petit, les plateformes deviennent des espaces aseptisés, lissés, où ne subsistent que les récits compatibles avec la publicité ou la neutralité molle.
C’est un risque réel pour la mémoire collective, l’engagement et la richesse des récits. C’est aussi un risque pour la diversité des opinions, et in fine, pour la démocratie.
Alors, comment choisir nos mots ?
Avec Memora Studio, je pars du principe que les mots sont là pour dire le vrai, l’essentiel, même quand c’est difficile.
Mais je sais aussi qu’il faut les manier finement pour ne pas disparaître de la conversation.
Mon parti pris :
- Choisir des mots justes et sincères, même quand ils sont sensibles
- Trouver des formes alternatives qui gardent le message intact
- Défendre une communication qui n’a pas peur du réel, mais sait comment l’exprimer dans un monde d’algorithmes
En conclusion : dire autrement, ce n’est pas trahir
Utiliser une astuce pour contourner un robot, ce n’est pas trahir son message.
C’est parfois le seul moyen de le faire passer.
Mais devoir recourir à ce type de stratégie reste un signal inquiétant : quand des mots sont censurés, ce sont des histoires qu’on empêche d’être entendues. Et ce sont précisément ces histoires-là que je veux continuer à accompagner, à écrire, à faire vivre.
