IA, algorithmes & état de droit

Vient à paraître, J. CHARPENET & C. LEQUESNE-ROTH, “Discrimination et biais genrés, Les lacunes juridiques de l’audit algorithmique”, D. p. 1852.

 

1. Dans le cadre d’un séminaire intitulé « Femmes et Deep Law », la Chaire Koyré dédiée au droit économique et à l’in- telligence artificielle a posé la question des inégalités de genre dans l’univers des deep technologies. Ce séminaire a été l’oc- casion de réunir à l’université Nice Côte d’Azur historiennes, gestionnaires, data scientistes et juristes pour un débat autour de la place des femmes dans le domaine de l’intelligence arti- ficielle (IA) 1. Les échanges ont abouti à un bilan préoccu- pant : l’intelligence artificielle est un terrain de prédilection de l’expression des inégalités de genre. Elles s’expriment – et se déclinent – aussi bien dans la formation et l’emploi, où les femmes sont largement minoritaires 2, que dans la conception des outils – par ou pour les hommes 3 – ou au travers de la destruction d’emplois engendrée par l’IA qui vise, à titre prin-

cipal, les emplois assurés par les femmes 4. Ce sont toutefois les échanges relatifs aux dispositifs techno-normatifs qui ont suscité nos plus vives interrogations : comment la technolo- gie peut-elle générer, reproduire et diffuser les inégalités de genre ? Quelles réponses le droit peut-il y apporter ?

Plusieurs affaires récentes ont permis de mettre en évidence l’existence de biais algorithmiques « genrés » ; ils constituent autant d’atteintes au droit de la non-discrimination (I) et sou- lèvent des difficultés dans la mise en œuvre de la responsabilité notamment. Le cadre juridique national et européen apparaît encore peu propice à la mise en œuvre des audits algorith- miques, pourtant indispensables à la protection des libertés fondamentales (II).

I – Des biais algorithmiques aux discriminations fondées sur le genre

2. Si les terrains de discrimination sont multiples et protéi- formes, les travaux dénonçant les discriminations par la voie des technologies, et plus spécifiquement des dispositifs algo- rithmiques, se multiplient 5. Une récente étude du Conseil de l’Europe dénonce ainsi la multiplication d’« algorithme(s) tendancieux qui discrimine[nt] systématiquement un groupe de la société, par exemple en fonction de l’âge, de l’orientation sexuelle, de la race, du genre ou de la situation socio-éco- nomique » 6. En d’autres termes, le recours à des dispositifs algorithmiques – compris comme les techniques de traitement automatisé – est susceptible de priver un individu de son droit de jouir de tous les droits de l’homme et de toutes les libertés fondamentales sans discrimination. Concernant plus spécifi- quement les discriminations en raison du genre, le phénomène se comprend et s’explique au regard de l’existence de « biais genrés », qui peuvent apparaître à plusieurs étapes du proces- sus algorithmique. Nous envisagerons ainsi les biais de modé- lisation, qui résultent du paramétrage du traitement (A), puis les biais dans la constitution des bases des données (ou data set) qui permettent l’entraînement des algorithmes (B).

(…)

 

[1] Journée en hommage à Laurence Boy, 8 mars 2019, Université Côte d’Azur, Chaire d’excellence scientifique UCA.

https://www.droiteconomique.org/manifestation/femmes-et-deep-law/?occurrence=2019-03-07

[2]. Dans le secteur numérique, 33 % des emplois sont occupés par des femmes et 16 % seulement quand il s’agit de métiers techniques comme celui de développeur. A. Naselli « Le secteur des nouvelles technologies en quête de femmes », Le Monde, le 12 novembre 2018

https://www.lemonde.fr/societe/article/2018/11/12/le-secteur-des-nouvelles-technologies-en-quete-de-femmes_5382305_3224.html

[3] E. Khonje, « Faire progresser l’innovation en intégrant la dimension de genre », OMPI, août 2017 https://www.wipo.int/wipo_magazine/fr/2017/04/article_0001.html

Notons que le même problème est soulevé en matière d’essai clinique : S. Logean Les tests de médicaments négligent trop souvent les femmes, Le Temps, 9 février 2017.

https://www.letemps.ch/sciences/tests-medicaments-negligent-souvent-femmes

[4] C. Legros, «  Métiers du numérique : l’exode des femmes », Le Monde, 03 mars 2019

https://www.lemonde.fr/economie/article/2019/03/03/metiers-du-mumerique-l-exode-des-femmes_5430824_3234.html