Pourquoi la lutte contre l’IA est un enjeu afroféministe ?

Il m’a fallu du temps pour trouver la bonne forme pour compiler tout ce que j’ai ingurgité depuis plus d’un an (et pas mois, haha, le temps file) sur le sujet, tant le sujet est vaste. J’ai donc accepté que ce post serait une introduction sur le sujet et décidé de rester sur une forme plus vulgarisée, mais dont les nuances sont accessibles via les sources à la fin de cette publication. Notez donc que si ce post se concentre sur l’IA générative, les sources et les recommandations vont plus loin et aborde différentes formes.

L’IA au quotidien

Si vous débarquez et avez besoin d’une petit synthèse sur les conséquences de votre menu hebdomadaire généré par ChatGPT, je vous recommande cet article d’Amnesty International, concis et actuel sur le sujet comme introduction à ce qui va suivre. On le sait donc, utiliser l’IA, c’est participer :

  • à un écocide
  • l’exploitation et la mort de personnes précarisées
  • l’exploitation et le détournement de nos données personnelles à des fins mercantiles et politiques liberticides
  • à la reproduction des discriminations facilitées par le technoracisme
  • à une technologie fondée sur le pillage colonial (sur ce point précis, lire le post critique de Fania Noël)

Revenir sur le technoracisme

Pour parler de l’IA avec un regard afroféministe, il faut revenir sur le technoracisme, selon la définition proposée par Maxime Cervulle et Franck Freitas :

“DÉFINIR LES TECHNO-RACISMES

Nous proposons de nommer «techno-racismes» les présupposés raciaux qui se trouvent inscrits dans les objets, appareils et dispositifs techniques, ainsi que dans leurs usages ; présupposés qui

1) privilégient de manière active, bien qu’implicite, les utilisateurs blancs ;

2) renforcent et légitiment l’exclusion ou l’exploitation de groupes minorisés ;

On ne peut pas se dire en solidarité avec les pays du Sud, y compris en Afrique, et nier la manière dont l’usage de l’IA perpétue l’exploitation des nôtres, et des ressources.

3) reproduisent et matérialisent l’idée de «race» ;

On ne peut pas détacher l’IA de son contexte politique, ainsi son utilisation à des fins autoritaires et liberticides sans voir ses liens avec la violence policière et les politiques carcérales visant nos communautés.

4) sont le support de normes raciales.

Parler de «techno-racismes» ne revient pas à dire qu’il existerait des formations sociales racistes ne se matérialisant pas dans des objets et procédures techniques. Il s’agit plutôt de souligner combien les artefacts, les innovations technoscientifiques ou encore les moyens de communication portent nécessairement en eux la trace de la hiérarchie raciale qui structure les sociétés dont ils sont le produit.”

Après avoir été contraint de visionner à plusieurs reprises de nombreuses vidéos de suicides, de meurtres, de démembrements et de viols, il a fait une crise de panique et a demandé de l’aide.
Source EL PAIS

Un autre coût caché est celui sur la santé mentale, autre que celle des travailleurs exploitées par la tech, et la communauté : cas de dépendance affective avec l’IA, hypersexualisation des femmes noires dans les deepfakes et autres, erreur de diagnostique médical, perte des facultés d’apprentissage, de réflexion et de l’exercice de l’esprit critique…

https://www.science.org/content/article/ai-models-miss-disease-black-female-patients

Parler des conséquences liberticides et de l’agenda nécropolitique dans lequel l’IA s’inscrit, c’est aussi rappeler combien celle-ci constitue un outil de :

En somme, comprendre les conséquences de l’IA, c’est aussi adresser qu’elle ne sera jamais l’outil “neutre et démocratique” dans un monde

  1. régi par des rapports de force et des systèmes de dominations
  2. où elle est conçue par une poignée de billionnaires complaisants qui voient le fascisme comme une opportunité
  3. demeure un produit dans un système capitaliste

Pour le comprendre, il faut le technoracisme existe grâce au capitalisme racial.

IA, technoracisme et capitalisme racial

Ce qui m’a marqué en bûchant sur ce sujet, c’est la manière dont peu de publications françaises formulant une critique de l’IA adresse le capitalisme racial qui la rend possible. Comme l’explique Sylvie Laurent dans l’entretien Autour d’une double origine : histoire du capitalisme racial. Entretien avec Sylvie Laurent, le capitalisme racial s’est mu à travers le temps à partir d’une même matrice occidentale :

Formellement, le capitalisme racial est une expression que l’on attribue à Cedric Robinson (2000), mais dont je retrace une forme de petite Préhistoire en Afrique du Sud. Les penseurs marxistes pensaient qu’il y avait une spécificité de l’Afrique du Sud, que c’était une modalité du capitalisme extrêmement singulière. Et, ensuite, Cedric Robinson, prenant les choses à Londres avant de repartir des États-Unis, montre qu’en réalité ce n’est pas propre à l’Afrique du Sud, mais que c’est quelque chose qui existe finalement partout où l’Europe a étendu sa velléité d’appropriation capitaliste, donc aussi aux États-Unis. Ensuite, il faut bien constater que, d’aussi loin que date la théorie critique du capitalisme, nous sommes quand même toujours ramenés à la sphère atlantique. Donc je ne crois pas qu’il y ait d’autres capitalismes que cette institution historique précise. Peut-être qu’on inventera d’autres capitalismes. On change les mots, mais le capitalisme numérique, le capitalisme néolibéral, le capitalisme d’État à la chinoise, le capitalisme allemand du xixe siècle, ce ne sont finalement que des déclinaisons d’une même matrice. 

Ce sont des institutions qui varient selon les époques, mais qui ont certaines structures propres que je ne limite pas au salariat et à l’industrie, une structure fondatrice dont on ne peut pas se défaire, à savoir une logique expansionniste interne. Et cet impérialisme interne, pour le dire autrement, s’est historiquement traduit par l’appropriation de zones périphériques considérées comme gratuites – je reprends les travaux de Jason Moore – que l’on peut, sans préjudice, sans compensation et sans rémunération, s’approprier à des fins de production de valeur.

Gratuite, sans rémunération, et que l’on s’approprie à des fins de production de valeur – c’est pas une belle description de l’IA, ça ? On continue :

Si je devais définir ce qui lie fondamentalement le capitalisme et le racisme, ou le capital et la race, c’est la fondation gémellaire, siamoise, de la théorie de la valeur, c’est-à-dire non seulement cette espèce de balancement perpétuel entre ce qui a de la valeur et ce qui n’en a pas, mais aussi la condition de dévaluation que suppose l’énonciation d’une valeur. L’Amérique de Christophe Colomb n’a de valeur que s’il y a des mines et des indigènes pour extraire le minerai. Ainsi la valeur que l’on est venu chercher, celle de la vie des indigènes, de la terre, du sous-sol, n’existe pas tant que le minerai n’est pas devenu marchandise, et c’est ce qui me semble être intéressant pour penser capital et race. 

En somme, même si vous découvrez la notion de capitalisme racial, vous la connaissez forcément dans votre imaginaire, notamment dans le discours de défense des personnes migrantes où leur valeur ne passerait que par ce qu’ils peuvent apporter à la Nation. Et l’apport en question, c’est pas leurs sourires, leurs personnalités, leurs cultures, mais bien une valeur marchande mesurable dans une économie capitaliste.

Ainsi, quand on parle de l’IA comme un outil de pillage colonial, on parle notamment de sa dimension extractiviste et de la minorité qui en bénéficie. Mar Hicks, historienne, explique longuement dans l’article Why is AI not inevitable la particularité de l’IA dans l’histoire de l’informatique, dont la newsletter Sentiers a résumé le propos :

Hicks établit également un lien entre l’IA et un schéma d’extraction dans l’histoire de l’informatique, où l’adoption technologique sert à centraliser le pouvoir entre les mains de ceux qui le détiennent déjà, leur permettant de s’affranchir du travail et des connaissances techniques. Hicks décrit comment les systèmes informatiques ont historiquement été liés au pouvoir et au contrôle de l’État, une histoire occultée par la présentation de la technologie comme un simple produit de consommation personnelle. La solution ne peut être technologique : les technologies créent toujours plus de problèmes qui nécessitent de nouvelles solutions technologiques. Ce qu’il faut, ce sont des réponses politiques, sociales et économiques qui rendent le pouvoir aux individus plutôt que de le concentrer entre les mains des machines et de leurs concepteurs.

Alors, avec un usage de l’IA aussi globalisé, on peut se dire qu’on a que nos bons sentiments et nos valeurs pour lutter contre celle-ci, surtout quand sa prolifération confirme tous les scénariis dystopiques qu’on croyait propre à la science-fiction, comme le cas de l’IA qui trahit ses utilisateur.ice.s, jusqu’à perpétrer du chantage, ou d’autres, plus sombres, que je ne listerai pas ici mais que vous pouvez consulter sur le compte de (anglais).

Internet est mort : de l’IA à l’extraction de nos savoirs (et dont nous sommes complices)

Jusqu’ici, on a parlé de l’IA générative, qui a plusieurs formes, entre celles qui s’infiltrent dans nos foyers par des apps et autres, mais aussi dans nos méthodes d’apprentissage car pendant que les Millenial, ma génération donc, s’énorgueullissent de savoir que l’IA n’est qu’un outil et qu’ils sont capables d’en critiquer les résultats et d’exercer leur esprit critique, on a une toute nouvelle génération qui apprend de l’IA. Je n’ai pas dit “utilise l’IA pour apprendre”, mais bien apprend de l’IA.

Quand on commence, c’est difficile de s’en passer. Je pense qu’on peut vite développer une sorte d’addiction à l’IA, vu que ça facilite vachement les choses pour tout. Le risque, c’est que nos notes s’améliorent mais c’est pas vraiment nous qui progressons au final.” source

Lors d’une conférence que je donnais dans une université au Bénin, une élève m’a demandé si, aux vues de mon engagement afroféministe, on pourrait dire aussi que mon engagement est wokiste. Il n’y avait pas de critique ou d’animosité dans sa question, elle était sincère. J’ai souri, et je lui ai donc demandé ce qu’est le wokisme. Elle a alors pianoté sur son téléphone et m’a cité la définition autogénérée par Google et ses résumés automatiques. Le résultat ? “Le wokisme est un mouvement qui…” . Pas de mention du wokisme comme étant un mot créé par l’extrême droite, ni comme un détournement du Stay Woke popularisé lors des luttes pour les droits civiques dans les années 60, et encore moins une mention sur le rôle des médias dans la popularisation de ce terme pour stigmatiser les mouvements de gauche, particulièrement les collectifs antiracistes et féministes. La légitimité induite par l’IA derrière ce terme est situé, à l’image de ses créateurs et de leur agenda d’extrême-droite. Je ne pense pas que cette étudiante manquait d’esprit critique, je pense juste qu’elle appartenait à un autre contexte (béninois en l’occurence) et à une génération de l’immédiateté qui a un rapport à la réalité différent et qui confrontent de moins en moins les sources – je sais que je sonne comme une boomeuse, snif, mais je vous jure que des études appuient mon propos dont vous pouvez avoir une idée ici :

« Une personne maîtrisant les médias sociaux devrait donc avoir connaissance non seulement des caractéristiques stables et modifiables des différentes plateformes, mais aussi de la manière dont ses interactions avec celles-ci façonnent, modifient et renforcent sa perception de la réalité », écrivent les auteurs. (…) Face à la montée de la désinformation, du harcèlement en ligne, des préoccupations liées à la confidentialité des données et de l’impact psychologique des médias sociaux, il est plus important que jamais d’apprendre aux étudiants à utiliser ces plateformes de manière responsable », a expliqué Ashley Nelson, professeure principale à la Freeman School of Business de l’Université de Tulane.

Et dans la mesure où un contexte fasciste ne se contente pas de l’IA pour pousser sa politique et pour inculquer ses imaginaires et son roman national sur la population, peut-on vraiment compter sur un adulte, quelque part, aux abords pour les accompagner ?

Il y a aussi les bots qui ont changé plusieurs réseaux sociaux comme le cimetière Twitter (ok, j’y retourne juste pour rire durant des grands épisodes historiques, mais thats’ it). Ce sont d’ailleurs les bots et l’IA qui ont suscité la fascinante théorie de l’Internet mort : un Internet qui ne serait qu’une immense toile où des bots échangent, sans aucun humain. Comme l’expliqueSyed Faizan Raza Rizvi – dont je vous recommande le compte, les modèles d’IA se développent plus vite que les ressource qu’ils pillent… c’est à dire nous. Résultat ? Les modèles d’IA se cannibalisent, ce qui les amène à se détériorer. On l’a notamment vu avec l’apparition d’un filtre jaune sur les images générées et volées via l’IA à des artistes, symptôme de ce cannibalisme numérique. C’est ce qui, selon Rizvi, amène les entreprises Tech à chercher à récupérer,

Je suis plus inquiet par la manière dont ils vont extraire nos souvenirs et les détourner. (…) Ces modèles d’IA cherchent désespéremment quelque chose de nouveau, ce qui les mène à nous. Le savoir vivant qui n’a pas été écrit et que nous portons (…)tout ce qui n’a jamais fini sur un site web. Ainsi, les entreprises tech partent à la recherche de ce qu’ils n’ont pu indexer, notre histoire orale – d’où les lunettes connectées et tout ce qui est portable. Ils sont les parfaits outils pour retranscrire nos conversations privées. (…) Mais l’IA déteste la fluidité, elle veut toujours une réponse définitive. Donc, tandis qu’Internet meurt, s’asseoir autour d’un chai avec un ami, sans téléphone, deviendra la forme d’échange d’informations la plus avancée que nous possédons.

À ce stade, je voulais jeter mon téléphone à l’autre bout de la pièce.

Alors, l’IA est-elle inévitable ?

Eh bien non.

Bien que le sujet reste vaste, il y a 3 choses qui sont récurrentes : le fatalisme (“L’IA est inévitable”, “on a déjà donné nos données personnelles de toute façon”), l’individualisme (“oui, mais moi je”), le refus d’admettre l’impérialisme derrière(“Faut avancer avec son temps”,”c’est le progrès”, hum, selon quel point de vue et depuis quel lieu ?). Et je vais te tenir la main en te disant ceci : la combo de ces joyeux ingrédients est le fuel nécessaire pour toute politique fasciste, et plus largement nécropolitique. Et quel est l’autre but du fascisme ? De provoquer la sidération et le désespoir.

Ce qu’il nous faut, donc, c’est nous imaginer les alternatives alors, une contre-proposition de ce discours fataliste, et je l’ai découvert grâce aux mots de la chercheuse Tressie McMillan Cottom, professeur en sociologie, dans cette incroyable interview :

“L’IA n’est pas inévitable. Elle est peut-être inévitable comme produit sur le marché, comme outil scientifique, mais pas comme manière d’enseigner à nos enfants ou d’avoir accès au gouvernement.
The future of AI isn’t a foregone conclusion.

Elle complète son propos dans cette interview :

« Quand on essaie de vous faire croire que l’avenir est déjà tracé, c’est qu’il est profondément incertain », a déclaré Cottom lors d’une récente table ronde à l’Urban Consulate de Detroit. « Je pense que cette promesse d’un avenir dominé par l’intelligence artificielle n’est en réalité qu’une angoisse collective des personnes très riches et puissantes quant à leur capacité à nous contrôler. (…) S’ils parviennent à nous faire accepter que l’avenir est déjà tracé – que l’IA est déjà là, que la fin est déjà proche – alors nous le leur imposerons », a poursuivi Cottom. « Mon idée la plus audacieuse est de refuser », a-t-elle conclu sous les applaudissements.

Toujours dans l’intervention de Mar Hicks, rapportée dans l’article AI is fuelling a poverty of imagination ⊗ Why nothing about AI is inevitable , il y a un point essentiel qui est difficilement mesurable : nous sommes au coeur d’une opération de com’ et de propagande quand il est question de l’IA. Ce ne sont pas 2 ou 3 entreprises qui se sont levées pour nous apporter la connaissance du feu, mais bien une stratégie marketing et gouvernementale qui nous vise et nous martèle qu’on a besoin de l’IA et qu’il est primordial à notre vie :

{Hicks} soutient que les affirmations concernant l’inévitabilité de l’IA relèvent de la stratégie marketing, visant à créer un engouement excessif et, à terme, à déqualifier des emplois. Hicks souligne que les cycles de surmédiatisation se concentrent sur les outils plutôt que sur les processus, car les outils sont plus faciles à vendre : « il est beaucoup plus difficile d’expliquer et de susciter l’enthousiasme autour des processus, des infrastructures et des bases de connaissances. » Lorsque les critiques admettent, dans leur analyse, qu’une technologie pourrait être inévitable, ils se placent déjà dans une position de faiblesse, partant du principe que ce sont les technologies qui façonnent la société, et non l’inverse. Cette pensée déterministe sur le plan technologique concentre le pouvoir entre les mains de ceux qui conçoivent et commercialisent la technologie.

Qu’est-ce qu’on fait, alors ?

Commencez par digérer tout ce qui a été dit ici, ce sera un bon début.
C’est très dur d’intégrer la dangerosité de l’IA quand on est face un gaselight permanent et organisé, encore plus quand les gens se vexent dans cette conversation. Mais le plus important, c’est que c’est progressif.

En somme, la lutte contre l’IA va de pair avec la degooglisation, et autres actes de résistances numériques qui, s’ils prennent du temps, offrent des alternatives concrètes pour une vie meilleure. Il y a toute une génération de militant.e.s et d’employées de la tech conscients qui forment et fournissent des directives pour, pas à pas, entamer une transition.

Personnellement, ceux qui m’ont le plus influencée, rassurée et qui me guident dans cette transition sont :

  • lizthedevelopper, qui décortique les faits divers liés aux modèles d’IA, même les plus dark, tout en offrant des ateliers – dont certains gratuits (anglais)
  • Candoria sur les questions éthiques liées à OpenAI
  • Ykreborn pour son Insta et sa newsletter, et qui m’a beaucoup, beaucoup, beaucoup appris
  • La Quadrature du Net

En français, il y a aussi quelques contenus de MadameTech qui vont dans ce sens.

Les questions qui reviennent

Mais quand on est précaire, l’IA n’est-il pas un outil d’émancipation ?

Cette idée – que j’ai vu passer maintes fois – suppose que la précarité de l’un justifierait l’exploitation et/ou la mort d’un autre. Outre le fait que l’IA est un danger pour les autres et pour nous-mêmes, à court et long terme, il faut aussi noter que ce point de vue est eurocentré, individualiste et démontre aussi comme il est aisé de reposer sur nos privilèges en tant que personnes noires européennes ou vivant en Europe.

Mais l’IA garantit plus d’accessibilité, non ?

Ce point particulier mériterait un post à lui-seul, et je suis mal placée pour y répondre, donc je me contenterai de noter deux choses que j’ai lu sur le sujet :

  1. de la même manière que l’IA renforce les discriminations, elle renforce le validisme de notre société (fracture numérique, etc) et s’inscrit aussi dans une logique validiste et capitaliste d’un coût humain acceptable, comme durant la gestion du confinement..
  2. Il y a plusieurs articles, dont ce rapport de l’UNESCO, qui rappelle qu’une technologie visant l’accessibilité se fait avec les personnes ciblées, et non à leurs dépends. Or, la casse de l’hôpital public et des métiers du soin et de l’aide à la personne est, me semble-t-il, pas la priorité des Techbros.

Est-ce qu’une IA éthique et régulée est la solution ?

Ça, c’est un énorme débat : qu’est-ce qu’on appelle une IA éthique ?J’essaie de suivre souvent ce qui est proposé.e comme alternatives à Ch@tGPT,comm Euria, en Suisse, qui utilise la chaleur de son data center comme chauffage pour l’équivalent de 6000 logements. Mais est-ce qu’une infrastructure éco-responsable à l’échelle locale échappe à l’exploitation des minerais au Congo ?

Comme beaucoup de conversations sur l’IA, il y a beaucoup de discussions euro ou occidentalo-centrées et peu de discussions internationalistes mises en avant proposant un véritable co-futur, encore moins avec les algorithmes dont nous disposons.

En conclusion,lLa lutte contre l’IA s’inscrit dans une démarche plus globale visant la conservation de nos droits et de nos libertés, quand les dominations s’outillent du numérique pour maintenir, voire exploiter davantage nos vies. Il n’y a aucun hasard à ce que la technologie soit utilisée à des fins colon/ales et f/sc/stes, mais il me semble essentiel de réfléchir à notre complicité au sein de celle-ci.

POUR ALLER PLUS LOIN

Pourquoi utiliser des algorithmes s’ils sont racistes ? de Lucie Ronfaut, qui a écrit plusieurs articles en français sur le sujet, et que je remercie pour ses recommandations, il y a un an de ça.

https://www.instagram.com/p/DTdtCx0D7KN/?img_index=1&igsh=OHRqczJ2dmw0bGd3

https://www.instagram.com/reel/DU98YNYDM1V/?igsh=YnNudjRteXJ4dG1y

https://www.courrierinternational.com/article/intelligence-artificielle-les-femmes-precaires-premieres-victimes-de-l-automatisation-du-travail

https://www.instagram.com/reel/DVbzsxKEn4l/?igsh=bm03eTFrNzlodGUy

Nous nourrissons un système de surveillance qui, bien qu’ils peinent à nous identifier, nous criminalisera et dépouillera en premier les plus marginalisées :

https://www.instagram.com/reel/DP1fJiGEXRX/?igsh=MTFmcG9yZnZ0Ymt2MA==

Faire perdre des millions à la Sillicon Valley : https://www.instagram.com/reel/DVUnlqjkmFZ/?igsh=a2p1cGpvdnQ2cHJt

https://www.instagram.com/p/DUaDy1FDODE/?img_index=5&igsh=MWI5anI2YXpuODFrNA==

https://www.instagram.com/reel/DT_4IAbEt24/?igsh=dG40a205N2h2MWJw

“L’IA devrait être traitée avec autant de prudence que la bombe nucléaire” https://www.instagram.com/p/DP1fJiGEXRX

https://reporterre.net/Au-Congo-les-consequences-meurtrieres-de-l-imperialisme-minier-europeen

AI models often fail to identify ableism across cultures

https://news.cornell.edu/stories/2025/10/ai-models-often-fail-identify-ableism-across-cultures

AI models miss disease in Black and female patients

https://www.science.org/content/article/ai-models-miss-disease-black-female-patients

AI models often fail to identify ableism across cultures

https://news.cornell.edu/stories/2025/10/ai-models-often-fail-identify-ableism-across-cultures

The Screen Time Paradox: How Social Media is Both Eroding and Revitalizing Reading

https://medium.com/@adnanmasood/the-screen-time-paradox-how-social-media-is-both-eroding-and-revitalizing-reading-79b2d04a5a32

Bravo à moi-même d’être allée jusqu’au bout de ce pavé

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *