Cartographier la montée du masculinisme en Europe : le projet de l’ISD primé
Le 11 février 2025, à l’École Normale Supérieure, dans le cadre du Sommet international pour l’action sur l’intelligence artificielle organisé par la France et l’Inde (6-11 février 2025), le Laboratoire pour les droits des femmes en ligne a dévoilé les lauréats de son tout premier appel à projets. Parmi eux, un projet porté par l’Institute for Strategic Dialogue (ISD) : Mapping the Masculinist and Male Supremacist Landscape in Central and Eastern Europe.
Depuis sa création en 2006, l’ISD est un laboratoire d’idées international spécialisé dans l’analyse et la lutte contre l’extrémisme, la désinformation et la polarisation numérique. Depuis plusieurs années, ses recherches mettent en lumière le rôle central des idéologies masculinistes dans les dynamiques de radicalisation en ligne.
Chercheuse à l’ISD, Cécile Simmons se consacre à l’étude des stratégies de manipulation en ligne, des mouvements d’extrême droite et de la violence numérique genrée. Son travail, largement cité dans les médias anglophones et francophones, a contribué à documenter la manière dont la misogynie structure de nombreux discours de haine.
Le 21 février 2025, Enflammé.e.s l’a rencontrée pour discuter de l’importance de cartographier les réseaux masculinistes en Europe de l’Est, mais aussi des conclusions de deux rapports majeurs de l’ISD : Misogynistic Pathways to Radicalisation, qui explore les liens entre misogynie et terrorisme, et Web of Hate, une étude rétrospective des vagues de violence sexiste en ligne.
Cécile Simmons, chercheuse à l’ISD (ISD Global)
Votre projet Mapping the Masculinist and Male Supremacist Landscape in Central and Eastern Europe a été sélectionné par le Laboratoire pour les droits des femmes en ligne. Pourriez-vous nous en dire plus ?
Ce projet part d’un constat : si l’on parle beaucoup du masculinisme dans les pays anglo-saxons et occidentaux, nous avons très peu de données sur son développement en Europe centrale et orientale. Pourtant, nous savons que ces mouvements y sont présents. Nous le savons empiriquement, par les témoignages des militantes féministes sur le terrain, par des articles de presse, mais il n’existe pas encore d’étude systématique qui permette de comprendre l’ampleur du phénomène.
Les discours masculinistes sont très présents dans certains cercles politiques et médiatiques. En Pologne, par exemple, le parti d’ultradroite libertarienne libertarienne Konfederacja (« Confédération »)[1] compte des figures politiques qui tiennent des propos ouvertement misogynes. Ce n’est pas anecdotique : des études montrent que la moitié des jeunes hommes polonais (18-25 ans) qui consomment du contenu masculiniste en ligne soutiennent ce parti.
Ce projet de cartographie vise à répondre à plusieurs questions essentielles : quels sont les principaux acteurs de ces mouvements ? Quelles sont leurs stratégies ? Comment interagissent-ils avec d’autres formes d’extrémisme, notamment l’extrême droite et le conservatisme religieux ? Et surtout, comment les décideurs politiques et les plateformes numériques peuvent-ils mieux contrer cette menace ?
-
Lancé le 8 mars 2024, le Laboratoire pour les droits des femmes en ligne (Laboratory for Women’s Rights Online) est une plateforme d’échange et un incubateur de projets visant à lutter contre les violences de genre en ligne et facilitées par la technologie.
Annoncé lors de la 78ᵉ Assemblée générale de l’ONU (2023), le Laboratoire réunit États, organisations internationales, entreprises, chercheurs et activistes pour réguler l’espace numérique et défendre les droits des femmes. Un appel à projets annuel, soutenu par le ministère de l’Europe et des Affaires étrangères, finance et accompagne des initiatives concrètes.
Quatre axes d’action clés :
Violences de genre en ligne : lutte contre le harcèlement et la diffusion non consentie de contenus.
Technologies émergentes : impact des algorithmes et intelligence artificielle sur les inégalités.
Prévention et éducation : inclusion des filles dans le numérique et promotion de l’égalité en ligne.
Étude des mouvements masculinistes : analyse des dynamiques de radicalisation et de désinformation sexiste.
Vous utilisez parfois les termes de « suprémacisme masculin » et de « masculinisme ». Quelle distinction faites-vous entre les deux ?
À titre personnel, j’emploie souvent « suprémacisme masculin » comme synonyme de « masculinisme », mais en réalité, cela dépend des contextes et des traditions de recherche. En français, on parle beaucoup de « masculinisme », alors qu’en anglais, on utilise plutôt « manosphere » ou « male supremacist movements ».
Le masculinisme désigne une idéologie qui se construit contre le féminisme, affirmant que les hommes seraient les véritables victimes des évolutions sociétales et qu’il faudrait « rétablir un ordre naturel ».
L’idée de suprémacisme masculin a le mérite de décrire clairement les objectifs profonds de l’idéologie dont nous parlons : ses défenseurs ne se contentent pas de dénoncer un supposé « privilège féminin », ils revendiquent une hiérarchie explicite où les hommes — et plus précisément les hommes cisgenres — devraient dominer les femmes et les minorités sexuelles. Ce n’est pas simplement une réaction aux transformations sociétales, c’est une véritable idéologie de domination.
On observe aussi que ces mouvements se professionnalisent. Ils sont portés par des entrepreneurs de la haine, des influenceurs qui utilisent les réseaux sociaux pour vendre des formations, des livres, des contenus qui promettent aux hommes de « reprendre le pouvoir ». C’est un marché extrêmement lucratif et internationalisé.
Comment allez-vous procéder pour cartographier ces réseaux et produire un état des lieux exhaustif ?
Le projet s’étend sur 11 mois, et nous avons déjà commencé à identifier des acteurs, des plateformes et des stratégies de communication employées par ces mouvements. L’objectif n’est pas seulement de documenter leur présence, mais aussi de comprendre comment ils interagissent avec d’autres sphères idéologiques, notamment l’extrême droite et le conservatisme religieux.
Nous nous appuyons sur plusieurs méthodologies :
Cartographie des acteurs clés : influenceurs masculinistes, groupes de discussion sur Telegram, chaînes YouTube, blogs et sites Internet liés à ces courants.
Analyse des narratifs : observation des discours récurrents, des interactions entre les communautés, et de l’influence de figures politiques.
Identification des stratégies numériques : modes de diffusion des idées, mécanismes d’amplification algorithmique, tactiques de contournement des politiques de modération des plateformes.
Le rapport final, prévu pour septembre prochain, ne sera pas un simple document d’analyse académique. Nous voulons produire un outil concret pour les ONG, les journalistes et les décideurs politiques. C’est pourquoi une phase d’engagement suivra sa publication : nous organiserons des rencontres, des conférences et des entretiens pour assurer une diffusion efficace des résultats.
Ce travail de cartographie est essentiel pour comprendre comment les discours masculinistes se structurent et évoluent en ligne, mais aussi comment ils peuvent constituer une porte d’entrée vers des idéologies plus extrêmes. C’est précisément ce que nous avons analysé dans un autre rapport, Misogynistic Pathways to Radicalisation, qui explore la manière dont la haine des femmes peut être un vecteur de radicalisation violente.
Misogynie et radicalisation : un vecteur de violence extrémiste
L’ISD a publié en septembre 2023 le rapport Misogynistic Pathways to Radicalisation, qui montre que la misogynie peut être un vecteur de radicalisation. Pourtant, ce lien est rarement pris en compte dans les politiques publiques. Pourquoi cette invisibilisation ?
Le principal problème, c’est que la misogynie est encore trop souvent perçue comme une simple question de société ou de culture, et non comme un véritable signal de radicalisation. Les actes violents motivés par la haine des femmes sont généralement traités comme des cas isolés, des dérives individuelles, alors qu’ils s’inscrivent en réalité dans une idéologie bien plus large.
Nous montrons également que la misogynie constitue un terreau de radicalisation. Dans plusieurs attaques récentes, les assaillants présentaient un historique d’agressions sexistes ou de harcèlement en ligne, ce qui montre un lien clair entre la violence misogyne et l’extrémisme.
La misogynie est donc un signe avant-coureur de radicalisation. A-t-elle changé ces dernières années ?
Oui, et c’est important de le souligner. La misogynie en ligne a évolué : elle ne se limite plus à des insultes sexistes ou à des appels explicites à la violence. Aujourd’hui, on observe des formes beaucoup plus sophistiquées de harcèlement, qui passent souvent sous le radar des modérateurs.
Un rapport du Wilson Center de 2021 parle ainsi de malign creativity — ou créativité malveillante —, un concept qui décrit la manière dont les auteurs de violences sexistes en ligne contournent les règles des plateformes. Ils utilisent :
Des détournements d’images et des mèmes, qui propagent des idées misogynes sous couvert d’humour.
Des insinuations subtiles, permettant d’attaquer une personne sans que cela soit explicitement haineux.
Des narratifs conspirationnistes, qui empruntent les codes du complotisme pour discréditer les femmes engagées dans l’espace public.
Nous avons observé une multiplication des campagnes de désinformation ciblant certaines figures féminines publiques, notamment par la diffusion de fausses informations destinées à délégitimer leur parole et leur crédibilité.
Comment l'inaction des plateformes numériques favorise-t-elle cette radicalisation ?
Il y a deux problèmes majeurs.
D’abord, les plateformes appliquent leurs règles de manière inégale. Certaines décisions prises récemment sur le discours de haine en ligne montrent clairement que la lutte contre la misogynie n’est pas toujours une priorité. Les politiques de modération sont appliquées de façon incohérente, et cela permet aux discours masculinistes radicaux de prospérer.
Ensuite, les algorithmes amplifient les contenus masculinistes et facilitent la radicalisation. Un utilisateur qui commence à regarder du contenu « soft masculiniste », du type « comment améliorer sa masculinité ? », se verra très vite recommander du contenu plus radical, qui banalise la haine des femmes et normalise des idées extrémistes.
Nous avons mené plusieurs études où nous avons simulé le parcours d’un utilisateur sur YouTube ou TikTok : en quelques heures, un compte qui consulte du contenu sur le développement personnel masculin se retrouve exposé à des vidéos prônant des idées misogynes ou victimisant les hommes face au féminisme.
Quelles solutions proposez-vous pour mieux lutter contre ces phénomènes ?
Nous avons plusieurs recommandations dans ce rapport. La première, c’est d’intégrer la misogynie dans les programmes de prévention de la radicalisation. Aujourd’hui, lorsqu’on parle de détection des risques, on se focalise sur les discours religieux extrémistes ou ultranationalistes, mais on ne prend pas en compte la misogynie comme un indicateur. Pourtant, elle constitue une première étape vers des idéologies plus violentes.
Nous plaidons également pour une meilleure formation des forces de l’ordre et des enseignants. Ces acteurs sont en première ligne face aux jeunes en cours de radicalisation. Ils doivent pouvoir identifier les discours masculinistes et comprendre comment y répondre efficacement.
Nous appelons les plateformes à rendre des comptes sur leurs politiques de modération, qui restent aujourd’hui trop inégales et réactives. Certaines décisions prises récemment montrent clairement que la lutte contre la misogynie n’est pas toujours une priorité, laissant ainsi ces discours proliférer en ligne. Il est impératif de leur imposer des règles de transparence renforcées et des obligations contraignantes pour garantir une action plus efficace contre la haine sexiste. Sans une régulation stricte et une application rigoureuse des politiques de modération, ces espaces continueront à nourrir des dynamiques de violence et de radicalisation.
Nous insistons également sur la nécessité de repenser la conception des algorithmes afin de limiter la diffusion des contenus polarisants et extrémistes. Aujourd’hui, les plateformes se contentent d’agir une fois que le problème a pris trop d’ampleur, alors que ces dérives pourraient être évitées en amont. Il est donc essentiel d’intégrer des mécanismes de prévention dès la phase de conception algorithmique pour empêcher la promotion automatique de discours haineux. Cela implique une volonté réelle de la part des entreprises du numérique de modifier leurs systèmes de recommandation et d’adopter une approche plus responsable dans la gestion de l’information en ligne.
Les gouvernements commencent-ils à prendre ces recommandations au sérieux ?
Il y a une prise de conscience progressive, notamment en Europe. En France, des initiatives ont permis d’intégrer la lutte contre la misogynie dans les débats sur la régulation du numérique, ce qui constitue un premier pas. L’Union européenne a également adopté le Digital Services Act (DSA), qui impose de nouvelles obligations aux plateformes en matière de modération et de transparence.
Il est temps d’adopter une approche proactive : ne plus attendre que les femmes soient massivement attaquées pour réagir, mais anticiper ces dynamiques, réguler les plateformes de manière stricte et reconnaître que la violence sexiste en ligne constitue une menace pour la liberté et l’égalité. Pourtant, nous restons enfermés dans une logique réactive, où l’on ne prend des mesures qu’après l’éclatement d’un scandale, d’une attaque ou d’une polémique, sans jamais traiter le problème en profondeur.
“Ce qu’il faudrait, c’est une stratégie de prévention à long terme, qui prenne enfin en compte la misogynie comme un facteur clé de radicalisation et de violence en ligne.” — Cécile Simmons
Au-delà du processus de radicalisation individuelle, notre travail a aussi montré que ces idéologies se déploient à grande échelle lors d’événements médiatiques. Certaines affaires deviennent alors des catalyseurs de haine, où les attaques sexistes sont massivement orchestrées et amplifiées en ligne. C’est ce que nous avons étudié dans Web of Hate, une analyse des dynamiques de harcèlement numérique en lien avec des actualités très médiatisées.
Web of Hate : comprendre comment les vagues de haine sexiste s’organisent en ligne
Vous avez coécrit le rapport Web of Hate en novembre 2023, qui montre comment certains événements déclenchent des vagues de harcèlement en ligne. Pouvez-vous nous expliquer ce phénomène ?
Oui, et c’est un point central de notre travail. Nous avons analysé plusieurs cas où des événements très médiatisés ont servi de catalyseurs à des attaques massives contre des femmes.
Deux événements ont été particulièrement révélateurs. Le procès Johnny Depp — Amber Heard, qui s’est déroulé en 2022, a généré une explosion de discours misogynes, bien au-delà des débats sur l’affaire elle-même. Des influenceurs masculinistes ont exploité ce procès pour relancer des narratifs sur le prétendu « mensonge des femmes » et propager l’idée que les accusations de violences conjugales seraient des outils de manipulation.
L’annulation de l’arrêt Roe v. Wade en 2022 a également déclenché une vague de harcèlement à l’encontre des militantes féministes et des responsables politiques pro-choix. Nous avons observé une augmentation massive de la désinformation sur l’avortement, notamment par la diffusion de fausses informations sur les procédures médicales et les femmes ayant recours à l’IVG.
Dans ces cas, nous avons constaté que les contenus nocifs ne se produisent pas de manière spontanée. Ils sont amplifiés par des acteurs bien identifiés, qu’il s’agisse d’influenceurs, de figures politiques ou de communautés organisées. Ces acteurs produisent du contenu visant à polariser le débat, en exploitant les algorithmes des plateformes pour maximiser la viralité de leurs messages et encourager le harcèlement ciblé.
Ces vagues de harcèlement ne sont pas spontanées, mais souvent orchestrées. Qui sont les principaux acteurs de cette stratégie ?
Les influenceurs masculinistes jouent un rôle central. Contrairement à ce que l’on pourrait penser, ils ne sont pas seulement des commentateurs de l’actualité : ils en façonnent activement la lecture en produisant du contenu destiné à orienter le débat public.
Lorsqu’un événement comme le procès Depp-Heard ou l’annulation de Roe v. Wade survient, ces influenceurs publient immédiatement des vidéos, des threads, des mèmes et des "analyses" qui présentent les femmes comme des manipulatrices, des menteuses ou des menaces pour la société. En manipulant l’émotion et en jouant sur des discours victimaires masculinistes, ils amplifient certains récits pour engager leur audience et renforcer leur influence.
Leur objectif est double. D’une part, ils cherchent à monétiser cette polarisation en attirant un maximum d’engagement sur leurs publications, que ce soit à travers les likes, les commentaires ou les partages. D’autre part, ils créent une dynamique virale, en encourageant leurs abonnés à relayer et amplifier leurs discours.
“Cela montre que la misogynie en ligne n’est pas seulement une série d’attaques isolées : c’est une stratégie pensée, rentable et organisée, qui sert des intérêts économiques et politiques.” — Cécile Simmons
Quels sont les principaux mécanismes qui permettent à ces campagnes de harcèlement de se propager aussi rapidement ?
Nous avons identifié plusieurs tactiques récurrentes.
L’une d’elles repose sur l’humour et le trolling : en minimisant leurs propos, les auteurs de harcèlement rendent les attaques difficiles à dénoncer, car elles sont souvent déguisées sous forme de « blagues » ou de contenus satiriques.
L’amplification algorithmique joue également un rôle clé. Les contenus misogynes sont favorisés par les algorithmes des réseaux sociaux, qui privilégient l’engagement, même lorsqu’il est négatif. En mettant en avant les publications qui suscitent le plus de réactions, qu’elles soient positives ou négatives, ces algorithmes facilitent la propagation des discours sexistes et extrémistes. Ce mécanisme, déjà documenté dans nos recherches sur la radicalisation, fonctionne de manière similaire dans les campagnes de harcèlement ciblé, où les publications les plus violentes deviennent rapidement virales.
Un autre facteur est le contournement des règles de modération. Les groupes masculinistes utilisent des codes spécifiques, des références culturelles détournées et des euphémismes pour éviter d’être détectés et bannis par les plateformes. Cette adaptation constante leur permet de continuer à propager leur idéologie tout en échappant aux restrictions imposées par les réseaux sociaux.
Enfin, l’une des tendances les plus inquiétantes que nous avons relevées est l’usage croissant des deepfakes et des images truquées pour humilier et discréditer des femmes. Ce phénomène, encore peu régulé, représente une nouvelle forme de violence numérique qui risque de s’intensifier dans les années à venir.
-
[1] Formation politique fondée en 2018 encore plus conservatrice que le parti Droit et Justice (PiS).