Timnit Gebru, chercheuse en intelligence artificielle, était l'invitée de la Harvard Radcliffe Institute le 8 mars dernier. Le thème de la conférence était: The Quest for Ethical Artificial Intelligence.
The Quest for Ethical Artificial Intelligence: A Conversation with Timnit Gebru (Enregistrement sur YouTube)
🌘 Un départ précipité ...
Pour celles et ceux qui ne connaissent pas ses travaux, elle était, jusqu'en 2020, directrice de l'éthique en intelligence artificielle chez Google. Elle a été renvoyée suite à la publication d'un article qui ne faisait pas l'affaire de ses supérieurs. Et ça a soulevé de très fortes réactions dans la communauté de la science des données.
Depuis, elle a fondé une nouvelle organisation, la Distributed Artificial Intelligence Research Institute (DAIR). Cette organisation a pour mission de promouvoir la recherche communautaire en intelligence artificielle, loin de l'influence des géants du web. C'est ce qu'elle a présenté durant la première partie de la conférence.
Dans cette conférence, elle a abordé trois sujets qui sont des préoccupations grandissantes en science des données. Particulièrement, pour favoriser le développement de l'éthique dans ce domaine.
-
Le financement de la recherche et du développement logiciel
-
La cueillette et l'étiquetage des données
-
Le colonialisme par les données.
Logo de DAIR, fondé par Timnit Gebru
🌘 DAIR : pour des chercheurs en santé et épanouis
Décentralisé, pas pour les calculs, pas pour la technologie, mais pour garder les chercheurs dans leur communauté ! Partout dans le monde, là où il y a des problèmes à résoudre. C'est la mission de Timnit Gebru avec DAIR. Ramener la recherche en intelligence artificielle à l'échelle humaine.
Voici d'ailleurs l'approche encouragée autour du travail de recherche (traduction libre).
-
Le développement de l'IA qui tient compte des environnements aux ressources limitées ;
-
Des technologies linguistiques au service des communautés marginalisées ;
-
Une activité coordonnée sur les médias sociaux ;
-
Des travaux liés aux données ;
-
Des tests de robustesse et de la documentation.
Elle veut aussi encourager la recherche saine. Des chercheurs en santé, qui ne sont pas dans une course contre la montre. Une attitude différente de celle des géants du web. Ces derniers nous ont prouvé qu'ils sont prêts à amplifier les problèmes de la société pour extraire chaque dollar de la donnée. Contre le Move fast and break things de Facebook (c'était vraiment leur slogan interne jusqu'en 2014).
Des chercheurs épanouis, avec une vie équilibrée, au cœur de leur communauté. Et aussi, pas de bénévolat. Parce qu'il y en a beaucoup trop, dans le monde de la donnée, et il n'est souvent pas reconnu à sa juste valeur. Et encore moins de stages non rémunérés encore si communs dans la grande entreprise. Celles-ci encouragent la préservation de ce système très inégalitaire.
Un rythme de publication lent, au fil des découvertes et des avancements concrets, et non la publication de résultats intermédiaires, dans des formats compacts et indigestes, pour avoir toujours plus de financement.
🌘 Repenser le financement de la recherche
La structure actuelle d'incitatifs financiers, dans le monde académique, c'est de publier beaucoup, souvent, et le plus possible dans des revues dites à "haut impact".
Sans entrer dans le débat autour du milieu très toxique et patriarcal de l'édition scientifique, précisons que c'est une industrie contrôlée par quelques grands joueurs, avec des pratiques discutables et une très grande culture du secret.
On est très loin de la collégialité entre chercheurs et d'une vraie révision par les pairs, dans plusieurs domaines. Certains professeurs acceptent même des pots-de-vin en échange de leur nom sur une publication.
Cette recherche de la publication la plus rapide nuit au travail de fond de la recherche, qui se devrait d'être orientée vers la découverte et la diffusion de la connaissance.
Dans le domaine de l'intelligence artificielle, en particulier, la recherche est financée en très grande majorité par des hommes blancs qui ont fait fortune dans les technologies, la finance ou le secteur militaire. Et cette recherche, vous le devinez, bien, elle sert soit à faire encore plus d'argent, à permettre plus de répression ou à tuer plus de gens.
Souvent, le travail de données, qui a été fait en amont de la création des technologies, n'a pas été fait de façon éthique. On parle ici de travail d'étiquetage et de nettoyage des données, souvent relégué à de la main-d'œuvre exploitée au tiers-monde.
🌘 Reconnaitre le travail caché derrière l'étiquetage des données
Le travail étiquetage des données se faire souvent derrière des portes closes, loin des grands centres lumineux où les chercheurs en intelligence artificielle travaillent et discutent d'idées révolutionnaires.
C'est le nouveau travail invisible, parfois payé tout au plus 1000 $ par année, dans des centres d'affaires des pays du tiers-monde.
L'essai Ghost Work de Mary L. Gray et Siddharth Suri
Les auteurs Mary L. Gray et Siddharth Suri, qui ont étudié le sujet, parlent maintenant de Ghost Work, de travail fantôme. Celui-ci n'est que rarement reconnu ni même mentionné dans les articles de recherche. Un constat soulevé par Timnit Gebru, c'est que l'intelligence artificielle coute très cher quand tu te mets à payer les gens pour tout le travail accompli en amont.
Selon elle, si tu as contribué au travail des données, tu devrais avoir ton nom sur l'article, au minimum. Mais, on devrait surtout te rumunérer convenablement. C'est aussi d'ailleurs pourquoi elle refuse d'offrir des positions bénévoles chez DAIR.
Elle ajoute aussi que tout le travail fait par les communautés pour se faire reconnaître, que ce soit sur les réseaux sociaux ou sur des sites collaboratifs, est aussi une forme de travail bénévole.
Lorsqu'on utilise l'information pour alimenter des algorithmes d'intelligence artificielle sans l'accord ni le consentement des créateurs, on vient alors parler de colonisation par les données.
🌘 Cesser les pratiques de colonisation par les données
En consommant les algorithmes, on finit par payer pour les données générées par les communautés, sans récompenser leurs créateurs pour leur travail.
Ceci affecte particulièrement les communautés moins connectées, dont les Premières Nations. Ce phénomène se nomme la fracture numérique. De plus en plus, les citoyens réalisent que bien peu du travail effectué avec leurs données ne leur profite vraiment.
Elle mentionne d'ailleurs un article de Wired, Facebook's Fall From Grace Looks a Lot Like Ford's, où les auteurs comparent le colonialisme par les données aux pratiques d'action répressive de l'entreprise Ford Motor Company. Celle-ci a agi durant des années contre la syndicalisation et a longtemps refusé de reconnaître les risques liés aux voitures et à la pollution.
🌘 Quoi en retenir ?
Alors, qu'est-ce que je peux retenir de cette conférence de Timnit Gebru ? J'y vais en trois points :
-
La recherche de qualité et avec un fort potentiel d'impact demande du temps et une connexion avec les communautés.
-
L'éthique en intelligence artificielle ne s'applique non pas seulement sur ce qui est fait des résultats, mais aussi sur tout le processus, de la création des données jusqu'aux utilisateurs finaux
-
Le domaine est actuellement dominé par la recherche du profit et la course aux publications, et ça nuit aux besoins des populations marginalisées.