🧠 En avril, soulignons le mois de la neurodiversité️ 🎆

Vacances: Je serai fermé du 16 avril à 13h00 jusqu'au 29 avril à 9h00.

Collaborations

AI TECH & SOCIETY Aula Media s01e03 François Pelletier, actuarial scientist and influencer

449 mots - Temps de lecture estimé: 2 minutes

J'ai été invité par Tammy Mackenzie de l'organisme The Aula Fellowship à partager différents points de vue sur l'intelligence artificielle dans une série de podcasts. Voici ce premier podcast qui est en anglais. Cette série de podcast alternera entre le français et l'anglais. Le prochain épisode sera en français et portera davantage sur les enjeux de données et les métiers qui sont menacés par l'IA ou non.

🌘 Résumé du Podcast

(Résumé généré avec Mistral AI et revisé avant publication)

Dans ce podcast, nous discutons de divers aspects de l'intelligence artificielle (IA) et de leur impact sur la société.

Voici les points principaux abordés :

  1. Limites et biais des IA :

    • Les modèles d'IA sont souvent des boîtes noires où les données d'entrée produisent des résultats qui peuvent être biaisés en fonction des données d'entraînement utilisées. Il est difficile de comprendre comment ces résultats sont produits, ce qui rend difficile la détection et la correction des biais.
  2. La transparence et la responsabilité:

    • Les modèles comme LLaMA de Meta sont des poids ouverts mais non source ouverts, ce qui signifie qu'on peut utiliser les poids, mais on ne peut pas voir comment ils fonctionnent réellement. Cela pose des problèmes de transparence et de responsabilité.
  3. La responsabilité et l'éthique des grandes entreprises de la tech :

    • Les grandes entreprises comme Meta, OpenAI et Microsoft sont les seules à avoir les ressources nécessaires pour former des modèles d'IA depuis le début. Les autres, comme l'Institut Allen, utilisent la distillation, ce qui signifie qu'ils commencent par des modèles pré-entrainés sur des ensembles de données préexistants. Ils ne commencent pas à partir de zéro, mais utilisent des données déjà existantes.
  4. Les initiatives de modèles d'IA responsables:

    • Il y a des initiatives en cours au Canada, aux États-Unis et d'autres pays pour créer des modèles d'IA plus responsables en se basant sur des données volontaires. Cependant, il est important de rester vigilant, car on ne connait pas les données exactes utilisées pour entrainer ces modèles.

Notre conversation souligne l'importance de la transparence et de la responsabilité éthique dans le développement des IA. Les auditeurs sont encouragés à comprendre les limitations des modèles et à rester vigilants aux baises et aux impacts sur la société. Les grandes entreprises technologiques dominent le marché, mais il y a des initiatives pour changer ça.

Écouter notre conversation (en anglais)

Abonne-toi au flux RSS pour ne rien manquer.

Étiquettes