Que signifie l’intelligence artificielle (IA) féministe?

Par Sophie Toupin, Co-directrice, chercheuse et collaboratrice du Lab-Delta

*Cet article est une version modifiée d’un article intitulé « What does Feminist AI means » , rédigé pour GenderIT.

Mon amie a fait descendre la voiture aérienne en inversant le mouvement de la machine, et lorsque la voiture a touché le sol, la machine s’est arrêtée et nous sommes sorties.

                                           – Le rêve de Sultana, Rokeya Skhawat Hossain

 

Cet extrait est tiré de Sultana’s Dream, une nouvelle utopique féministe écrite en 1905 par l’autrice musulmane bengali Rokeya Skhawat Hossain. C’est l’histoire d’un pays, « ladyland », où les femmes règnent. Dans leurs universités, laboratoires et observatoires, elles construisent des voitures aériennes propulsées par des boules d’hydrogène, des tubes qui recueillent et stockent la chaleur du soleil et des tuyaux reliés aux nuages qui fournissent de l’eau propre aux familles et préviennent les inondations dévastatrices. Collectivement, les femmes de ladyland ont réussi à éradiquer des maladies épidémiques comme la malaria et la mortalité infantile. Leur cuisine est exempte de charbon et au lieu d’être remplie de fumée, de la verdure, des fleurs et des plants de tomates servent d’ornements. Tout cela avec deux heures de travail (re)productif par jour ! En développant leur propre science et technologie féministe, les femmes de ladyland visent à mieux servir leur communauté. Le rêve de Sultana est une histoire inversée où les femmes règnent et où les hommes sont invisibles, confinés en dehors du domaine public. C’est aussi une affirmation anticoloniale contre les pratiques coloniales britanniques de l’époque, alors que les femmes construisent des infrastructures pour le bien-être de leurs communautés. Comme le rêve de Sultana, l’intelligence artificielle féministe, qui fait l’objet de cet article, renverse notre réflexion sur ce que pourrait être une IA différente.

Sultana’s Dream Couverture du livre illustrée par Durga Bai et publiée par la maison d’édition Tara Books.

Dans cet article, j’examine deux questions interreliées : Que signifie l’IA féministe ? Et que fait l’IA féministe ? Pour étudier ces questions, j’ai passé en revue quelques publications, regardé des conférences enregistrées et écouté des baladodiffusions avec des universitaires et des praticiennes, en plus d’articles écrits par des activistes numériques qui utilisent la catégorie générale d’« intelligence artificielle féministe » ou IAF, qui comprend entre autres des désignations comme IA intersectionnelle, IA transféministe et IA féministe décoloniale. D’un point de vue méthodologique, cet article n’est pas basé sur un examen systématique et exhaustif de tout le matériel publié sur le sujet. Il s’agit plutôt d’une étude critique d’écrits principalement en anglais qui mettent en lumière les différentes compréhensions associées à la notion d’IAF. Cet article est divisé en trois sections. Tout d’abord, je donne un large aperçu historique du contexte dans lequel les perspectives critiques sur l’IA féministe ont émergé. Ensuite, je me concentre sur l’IA féministe aujourd’hui pour faire ressortir les différents aspects et les significations associés à ce terme. Enfin, je conclus par quelques observations émanant de cette enquête.

D’où vient le terme « IA féministe » ?

Un premier coup d’œil à l’hashtag #FeministAI en anglais sur Twitter laisse entrevoir une pluralité de significations. Le terme est utilisé pour contrer le discours des relations publiques (RP) des entreprises qui affirment qu’Alexa, l’assistante virtuelle d’Amazon alimenté par l’IA, est féministe, ainsi que pour signifier qu’il faut davantage de programmeuses féministes dans le domaine de l’IA en soulignant l’idée que les comportements sociaux et le genre de leurs concepteur·rice·s auront un impact sur la technologie développée. Le terme est également utilisé pour affirmer que l’IA doit œuvrer pour les droits des femmes et pour révéler que l’IAF est constituée d’un ensemble de données féministes alimentées par un algorithme féministe et entrainé par des féministes.

Malgré l’intérêt actuel pour l’IA féministe, le terme n’est pas nouveau. Déjà dans les années 1990, la notion était utilisée. Pour comprendre d’où vient ce terme, il est nécessaire de se pencher sur l’histoire des études en science et technologie féministe. À la fin des années 1970 et dans les années 1980, un corpus d’études a commencé à interroger les biais et les préjugés au sein de la science à travers des perspectives épistémologiques féministes. Au cœur de la remise en question féministe sur la science se trouvaient les questions de savoir ce qui compte comme connaissance et ce qui produit une meilleure connaissance (Haraway, 1988). Influencée par ces discussions, une informaticienne britannique féministe, Alison Adam, a commencé à utiliser et à formuler le terme d’IA féministe.

L’IA féministe naît dans un contexte où le paradigme dominant est celui de l’IA symbolique et non celui de l’apprentissage machine reposant sur les données de masse. L’IA symbolique consistait en des mots et des phrases (les symboles) qu’un programme pouvait compiler pour accomplir des tâches. Puisque les systèmes experts populaires dans les années 1980 utilisaient l’approche symbolique en IA, Alison Adam décida d’expérimenter avec ses étudiantes en informatique. Le premier système expert féministe qu’elle a piloté permettait de compiler la jurisprudence féministe sur les questions de discrimination (genre, race, classe, etc.) afin de permettre une analyse intersectionnelle et automatisée à celles dépourvues de moyens financiers pour se payer un·e avocat·e. L’autre système expert féministe visait à renforcer la compréhension de la communication intersectionnelle entre deux personnes d’horizon situés distincts (genre, race, classe, etc). Le constat avec ces deux systèmes qui n’ont jamais été mise en œuvre est qu’ils ont répliqué certains des travers de l’IA symbolique que l’IAF essayait de régler. Malgré leur succès mitigé, ces deux systèmes experts féministes ont néanmoins permis de jeter les bases de la conceptualisation de l’IA féministe.

C’est dans son ouvrage de 1998 intitulé Artificial Knowing : Gender and the Thinking Machine qu’Alison Adam peaufine sa critique intersectionnelle de l’IA symbolique et suggère dans son dernier chapitre l’idée d’une IA féministe. Elle soulève trois grandes préoccupations conceptuelles concernant l’IA symbolique dominante. Premièrement, l’IA a des conceptions épistémologiques et philosophiques controversées de ce qui constitue l’intelligence ; au lieu d’utiliser l’intelligence, elle utilise le mot savoir et soutient que le savoir des femmes est exclu des machines pensantes de l’IA ; deuxièmement, le modèle problématique de rationalité des projets d’IA, qui signifie que l’esprit humain a la priorité sur le corps, ne rend pas compte de la nature culturellement et socialement située de l’intelligence et favorise une forme désincarnée d’IA ; et troisièmement, comment rendre l’IA moins dominée par les hommes (ou, comme elle le dit, comment défaire l’idée rationnelle du « masculin comme norme » dans l’IA).

Pour Adam, il ne fait aucun doute que l’IA féministe est un projet politique, et ce, malgré que ses expérimentations avec l’IA féministe fussent partielles. Paraphrasant la déclaration d’Audre Lorde selon laquelle on ne peut pas utiliser les outils du maître pour démolir la maison du maître (« you can’t use the master’s tools to demolish the master’s house »), Adam pense que l’IA féministe peut être utilisée tactiquement pour faire quelques rayures dans la maçonnerie (1998, p. 70). Elle raconte qu’un homme lui a demandé, lors d’un atelier sur le genre et la technologie, en quoi un avion de chasse conçu par une féministe serait différent. Elle a répondu que les féministes ne conçoivent pas d’avions de chasse (1998, p. 157). Mais en répondant à la question : les féministes devraient-elles concevoir des applications pour l’IA ? Elle a répondu que malgré les contradictions existantes et les ratés de ses expérimentations, nous ne pouvons pas perdre de vue le projet politique de l’IA féministe. Cela signifie que des changements peuvent être apportés malgré des débuts modestes et que l’IA féministe a valeur de déclaration politique.

Les projets d’IA féministes aujourd’hui : Visibilité, inclusion et développement international

Le paradigme d’IA dominant aujourd’hui est celui de l’apprentissage machine. C’est en 2012 suite à la victoire de l’équipe de recherche de Geoffrey Hinton à l’Université de Toronto au concours de reconnaissance visuelle ImageNet que toute l’attention de l’industrie de la tech s’est tournée vers cette approche. L’algorithme AlexNet qui datait déjà de deux décennies a démontré sa performance lorsqu’il était associé à des données de masse et des ressources de calcul à grande échelle (Whittaker, 2021). C’est dans ce contexte que le potentiel commercial de l’apprentissage machine s’est accru et que l’IA est devenue un terme fourretout utilisé de manière marketing (Whittaker, 2021).

Les projets féministes en matière d’IA relèvent aujourd’hui des analyses intersectionnelles au sein de l’apprentissage machine. C’est-à-dire qu’une attention particulière est mise sur les données, les jeux de données, les algorithmes et la façon dont fonctionne l’IA. Plusieurs projets s’appuient sur les travaux d’Alison Adam pour critiquer les effets délétères de l’apprentissage machine et de piloter des expérimentations pratiques. Toutefois, l’apparition de l’IA féministe dans un contexte d’IA symbolique bien différent de l’apprentissage machine actuelle ne semble pas représenter une dimension pertinente dans ces projets. Ce qui est important chez celles qui s’inspirent d’Adam est son approche intersectionnelle et non les chamailleries passées entre les approches de l’IA.

L’IA féministe aujourd’hui est façonnée par des chercheuses féministes (qu’elles travaillent dans des grandes entreprises technologiques, des universités ou des organismes indépendants), des étudiantes, des ONGs et des artistes, tant dans le Sud global que dans le Nord. Le fait que de telles actrices s’impliquent pour repenser l’IA rompt avec son histoire conventionnelle, une histoire qui est tout d’abord liée à une position anticommuniste, où le département de la défense américain s’intéressait à l’IA pour traduire des documents russes pendant la guerre froide (Bell, 2018), mais également située au sein d’universités d’élite comme le MIT, et dans des entreprises de télécommunication ou d’informatique comme Bell Labs et IBM.

Les récents engagements critiques féministes et intersectionnels avec l’apprentissage machine ont été des réponses au racisme et au sexisme exposés avec force par des informaticiennes et/ou des universitaires féministes noires (Benjamin, 2019; Broussard, 2018; Buolamwini & Gebru, 2016; Noble, 2018). Dans le cadre de cette tendance, la notion d’IA féministe a gagné en visibilité grâce à des présentations, notamment le Ted Talk de Josie Young (2019) intitulé « Why we need to design feminist AI ». Dans cette conférence, Young soutient la nécessité d’une IA féministe pour contrer les effets sexistes et néfastes des assistants vocaux alimentés par l’IA comme Siri et Alexa ; au sein de sa présentation « What is a Feminist AI : Possible Feminisms, Possible Internets » au Disruption Network Lab à Berlin, Charlotte Webb (2019) suggère dix principes directeurs de l’IA féministe, en s’appuyant sur le travail de la spécialiste de l’interaction humain-machine (IHM) féministe Shaowen Bardzell (2010); Caroline Sinders (2020) a collecté lors d’ateliers participatifs un ensemble de données féministes, qu’elle désir inclure dans un future système d’IA féministe; et il existe un groupe de recherche et de conception communautaire créé en 2016 qui s’appelle feminist.ai. Ce dernier utilise le logiciel Poeito comme outils de design d’AI féministe.

La politique de visibilité de ces projets est un moyen de résister au pouvoir des systèmes d’IA, de suggérer des alternatives au statu quo de l’IA, de cimenter un imaginaire social différent sur ce que pourrait être l’IA féministe, et de rendre visibles les créatrices de l’IA féministe. La politique de réparation est liée à la visibilité. Réparation dans le sens où les systèmes d’IA actuels sont cassés et doivent être reconstruits. Ces projets sont cependant moins axés sur la réparation que sur l’inclusion. Critique du processus associé à l’inclusion au sein d’un système colonial brisé, Kim Tallbear, titulaire de la Chaire de recherche du Canada sur les peuples autochtones, la technoscience et l’environnement, parle de la nécessité de rendre la terre originale aux peuples autochtones. La question de la réparation par la décolonisation plutôt que par l’inclusion (voir Gaudry et Lorenz, 2018) est une question qui doit être explorée plus profondément à travers la pensée et de la pratique de l’IA féministe.

En 2019, Paz Peña et Joana Varon de Coding Rights au Brésil ont réfléchi à la question de la décolonisation de l’IA à travers une approche transféministe rapprochant les réflexions féministes et décoloniales sur l’IA. Leur travail intersectionnel aborde certaines des questions les plus épineuses de notre époque dans la relation entre l’IA et l’extractivisme, la surveillance des pauvres, le racisme et le patriarcat. Grâce à un partenariat avec Sacha Costanza-Shock, elles ont identifié les valeurs qu’elles souhaitent voir intégrées dans nos technologies, y compris l’IA, par le biais du très populaire Oracle for TransFeminist Technologies. Les travaux de Coding Rights sur les questions d’IA féministe ont mené au projet, notmy.ai, une boîte à outils féministe anticoloniale pour évaluer les systèmes d’IA.

L’idée de prototyper l’IA féministe provenant des Suds a été propulsée par le réseau de recherche sur l’IA féministe (f<a+i>r) de l’ONG Alliance A+. Leur projet d’incubation d’IA féministe : “du papier, au prototype et au pilote”, donne la priorité aux expériences de collecte de données féministes par des femmes, ou de collecte de données dirigées par des communautés dans le Sud. Dans leur appel à propositions, elles définissent l’objectif de l’IA féministe comme étant l’exploitation de l’IA « pour obtenir des résultats en matière d’égalité ; conçue avec l’inclusion à sa base ; créant de nouvelles opportunités et une correction proactive et innovante des inégalités » (A+ Alliance, 2021).

Bien que ce projet porte également sur la politique de visibilité et de réparation par l’inclusion, ce qui a retenu mon attention est la relation entre l’IA féministe et le développement international. Financé par le Centre de recherches pour le développement international (CRDI / IDRC) à Ottawa, ce projet vise à développer de nouvelles normes pour changer les systèmes institutionnels et culturels qui font l’IA. Le financement de ce projet s’inscrit dans le cadre de deux tendances politiques canadiennes actuelles : Premièrement, la politique d’aide internationale féministe de Justin Trudeau, et deuxièmement la politique canadienne d’IA responsable faisant de l’intelligence artificielle féministe une question de développement international et d’IA « responsable ». Il s’agit du premier projet d’IA féministe financé par un gouvernement. Alison Adam avait d’ailleurs identifié dans les années 1990 l’importance du financement pour développer l’IA féministe. Ceci étant dit, il est impératif de suivre ces développements et se poser des questions telles que : qu’est-ce que signifie l’IA féministe dans ce contexte ? Quels seront les projets pilotés sous le vocable IAF4D (Feminist AI for Development) ? A quelle fin ?

Critiques conceptuelles du cadre libéral

Sur le plan conceptuel, de récentes études féministes ont critiqué le cadre libéral associé à l’inclusion et à la diversité dans l’IA. Dans cette dernière section, je me concentre sur le livre Surrogate Humanity : Race, Robots, and the Politics of Technological Futures de Neda Atanasoski et Kalindi Vora qui remettent en question la notion d’IA féministe. Leur dernier chapitre intitulé On Technoliberal Desire, Or Why There Is No Such Thing as a Feminist AI est une provocation importante. Elles relient l’histoire de l’IA, rationaliste et masculiniste, à l’inévitable désir technolibéral d’être inclusif. Pour elles, les projets d’IA féministes concernent le projet libéral inclusif, et non l’abolitionnisme des systèmes de l’IA ou la réparation. Elles en viennent à questionner théoriquement l’idée même d’une intelligence féministe.

            Le désir de l’expansivité de la catégorie de l’intelligence, plutôt que le désir de      perturber cette catégorie et d’autres qui constituent le sujet libéral, ne réparera pas l’effet de substitution de l’intelligence artificielle. Si nous définissons le féminisme comme un projet décolonial, au lieu d’un projet libéral inclusif, de sorte que le  féminisme cherche politiquement à perturber les catégories de l’utilisation, de la propriété et de l’auto-possession plutôt que de redresser par l’inclusion, alors peut-être pourrions-nous dire de manière provocante qu’il n’y a pas de raison d’avoir une chose telle qu’une intelligence féministe (2019, p. 196).

Par souci de brièveté, je n’ai pas pu aborder la question de l’IA décoloniale /décolonisatrice/ autochtone qui, elle aussi, est riche de significations, et qui semble être la voie à suivre pour Atanasoski et Vora. Les réflexions et les pratiques naissantes au sujet de l’IA féministe ne pourront que gagner de l’expérience et des critiques. Rapprocher certaines des caractéristiques puissantes de l’IA décoloniale / décolonisatrice/ autochtone avec celles de l’IA féministe et vice versa pourrait conduire à de nouvelles perspectives et réflexions. L’une de ces caractéristiques est le tournant historique présent dans l’IA décoloniale qui rend visible la présence continue des histoires du colonialisme incluant de peuplement dans les systèmes d’IA. Cependant, tout comme l’IA féministe, l’IA décoloniale/ décolonisatrice/ autochtone adopte diverses tendances allant de la perspective d’inclusion, à la désoccidentalisation, la déprovincialisation ou l’indigénéité, et peuvent être influencée soit par l’école décoloniale latino-américaine, l’école africaine, l’école subalterne indienne ou les approches féministes intersectionnelles.

Conclusion

L’examen des tendances de l’IA féministe démontre une pluralité d’approches. Je conclus cet article avec six observations sur ce que fait l’IA féministe.

  1. Le terme IAF est puissant et crée de nouveaux imaginaires de ce qui est possible.
  2. L’IAF pourrait représenter une accroche pour que les féministes s’intéressent aux questions d’IA.
  3. Nous pouvons considérer l’IAF comme une forme de résistance qui peut être discursive et pratique aux systèmes d’IA dominants actuels.
  4. L’IAF est une intervention des féministes (universitaires, technologues, praticiennes) où qu’elles soient.
  5. Les projets d’IAF proviennent autant des Suds que des Nords.
  6. La catégorie IAF est généralement décrite de manière positive dans la pratique et les études. L’un des seuls exemples trouvés dans cet article qui est critique de l’IAF est la provocation faite par Atanasoski et Vera qui affirment que l’IA féministe n’existe pas.

La recherche sur les nouvelles perspectives de l’IA telles que l’IA féministe et l’IA décoloniale/ décolonisatrice/ autochtone est passionnante, et davantage de travaux et d’expériences doivent être réalisés sur le sujet.

Références

 

  • A+ Alliance. (2021). Incubating Feminist AI: Call for Proposals Application Booklet. https://drive.google.com/file/d/1AJyw5SOJpBNf5xqs4iDwjTaB47qjEU0O/view
  • Adam, A. (1998). Artificial Knowing: Gender and the Thinking Machine. London: Routledge.
  • Atanasoski, N. et Vora, K. (2019). Surrogate humanity : race, robots, and the politics of technological futures. Durham: Duke University Press.
  • Bardzell, S. (2010) “Feminist Hci: Taking Stock and Outlining an Agenda for Design,” CHI -CONFERENCE-, 2, pp. 1301–1310.
  • Bell, G. (2018). Decolonizing Artificial Intelligence.  https://www.youtube.com/watch?v=1KfcWMJ_u0w
  • Benjamin, R. (2019) Race after technology : abolitionist tools for the new jim code. Cambridge, UK: Polity.
  • Broussard., M. (2018) Artificial unintelligence:how computers misunderstand the world. MIT Press.
  • Buolamwini, J., et Gebru, T. (2018). “Gender Shades: Intersectional Accuracy
  • Disparities in Commercial Gender Classification.” Proceedings of the First Conference on Fairness, Accountability and Transparency, PLMR 81, pp. 77–91.
  • Gaudry, A. et Lorenz, D. (2018) “Indigenization As Inclusion, Reconciliation, and Decolonization: Navigating the Different Visions for Indigenizing the Canadian Academy,” AlterNative: An International Journal of Indigenous Peoples, 14(3), pp. 218–227.
  • Haraway, D. (1988) “Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective,” Feminist Studies, 14(3), pp. 575–599.
  • Hossain, R.S. (1905). Sultana’s Dream. https://digital.library.upenn.edu/women/sultana/dream/dream.html
  • Noble, S. U. (2018) Algorithms of oppression: how search engines reinforce racism. New York: New York University Press.
  • Pena, P. et Varon, J. (2019). “Decolonising AI: A transfeminist approach to data and social justice”, GIS Watch, https://giswatch.org/node/6203.
  • Sinders, C. (2020). Feminist Data Set. https://carolinesinders.com/wp-content/uploads/2020/05/Feminist-Data-Set-Final-Draft-2020-0526.pdf
  • Webb, C. (2019). What is a Feminist AI: Possible Feminisms, Possible Internets https://www.youtube.com/watch?v=bBQOyvNhWJY
  • Whittaker, M. (2021). The steep cost of capture. Interactions. https://interactions.acm.org/archive/view/november-december-2021/the-steep-cost-of-capture
  • Young, J. (2019). Why we need to design feminist AI. https://www.youtube.com/watch?v=E-O3LaSEcVw