Magic Scroll Icon Le grimoire du magicien Magic Scroll Icon

La discrimination algorithmique

- 425 mots - Temps de lecture estimé: 2 minutes

Offre de formation

Crystal Ball IconUtiliser des chatbots LLM localement et protéger ses donnéesCrystal Ball Icon

Utilise l'IA sans envoyer les données de ta clientèle sur des serveurs américains. Fais tourner des modèles directement sur ton ordinateur, en toute confidentialité. Conforme à la loi 25.

Réconcilie IA et vie privée — Inscris-toi


Sun Face IconComment les algorithmes d’IA peuvent-ils mener à de la discrimination ?Sun Face Icon


Les algorithmes d’apprentissage automatique peuvent introduire des biais discriminatoires lorsqu’ils sont entraînés sur des données non représentatives. Joy Buolamwini a fondé l’Algorithmic Justice League après avoir constaté qu’un robot de reconnaissance faciale ne détectait pas son visage, entraîné uniquement sur des visages pâles. L’InCoding — programmation inclusive — permet désormais d’auditer et corriger ces biais dans les systèmes d’IA.

Suite à la lecture d’un article paru en juillet dernier dans Bloomberg Businessweek, je trouvais important de partager un peu sur le sujet de la discrimination par les algorithmes.

Vidéo: The Coded Gaze: Unmasking Algorithmic Bias

Pour ceux qui sont moins familiers avec le domaine de l’intelligence artificielle, l’apprentissage automatique est une technique qui permet d’entrainer l’ordinateur à une tâche de reconnaissance. On lui donne des exemples auxquels on associe des caractéristiques (appelés variables explicatives) et une étiquette (variable réponse) partir desquels un ensemble de règles est déduit. C’est le modèle prédictif. Cet algorithme entrainé pourra ensuite prédire l’étiquette lorsqu’on lui fournira de nouvelles caractéristiques. L’enjeu de la discrimination survient lorsqu’on fournit un ensemble de données d’entraînement qui ont une ou plusieurs caractéristiques très similaires que l’on ne retrouvera pas nécessairement par la suite, lors de l’utilisation en pratique de ce modèle.

Joy Buolamwini

L’activiste Joy Buolamwini s’est intéressée à ce sujet alors qu’elle étudiait au Georgia Institute of Technology. Un robot possédant une capacité de reconnaissance faciale permettait de détecter la présence de ses collègues, mais elle demeurait invisible. Il s’avère que le robot a été entraîné à partir d’une banque de photos d’individus de peau blanche et ne pouvait détecter son visage foncé. Six ans plus tard, elle fonde l’Algorithmic Justice League, afin de combattre les algorithmes biaisés. Les premiers travaux de ce groupe visent à aider les développeurs à vérifier le biais dans la reconnaissance faciale, les diagnostics médicaux, l’analyse de données massives et plusieurs autres systèmes. C’est le InCoding, la programmation inclusive. Je crois qu’il est important de considérer cet aspect à mesure que nous déploierons des algorithmes de plus en plus sophistiqués dans nos produits et services.

Sources:

Offre de service

Moon Phases IconConsultation stratégique IA et vie privée — 2 heures — 490 $Moon Phases Icon

Tu veux intégrer l’IA sans compromettre les données de ta clientèle ? En 2 heures, je t’aide à définir une stratégie IA responsable, basée sur les normes ISO et IEEE.

La consultation inclut un plan d'action détaillé pour mettre en œuvre les recommandations et prioriser les étapes suivantes.

Réserve ta Consultation stratégique
Abonne-toi au fil RSS pour ne rien manquer.

Étiquettes