Collaborations

AI TECH & SOCIETY - Aula Media - s01e03 - François Pelletier, actuarial scientist and influencer

- 522 mots - Temps de lecture estimé: 3 minutes

Offre de formation

Crystal Ball IconUtiliser des chatbots LLM localement et protéger ses donnéesCrystal Ball Icon

Utilise l'IA sans envoyer les données de ta clientèle sur des serveurs américains. Fais tourner des modèles directement sur ton ordinateur, en toute confidentialité. Conforme à la loi 25.

Réconcilie IA et vie privée — Inscris-toi


Sun Face IconQue fait François Pelletier avec l’Aula Fellowship sur les risques et l’éthique de l’IA ?Sun Face Icon


Invité par Tammy Mackenzie de l’Aula Fellowship, François Pelletier partage différents points de vue sur l’intelligence artificielle dans une série de podcasts intitulée AI TECH & SOCIETY. Il y aborde les risques technologiques, les enjeux éthiques et les perspectives médias sur le développement de l’IA.

J’ai été invité par Tammy Mackenzie de l’organisme The Aula Fellowship à partager différents points de vue sur l’intelligence artificielle dans une série de podcasts. Voici ce premier podcast qui est en anglais. Cette série de podcast alternera entre le français et l’anglais. Le prochain épisode sera en français et portera davantage sur les enjeux de données et les métiers qui sont menacés par l’IA ou non.

🌘 Résumé du Podcast

(Résumé généré avec Mistral AI et revisé avant publication)

Dans ce podcast, nous discutons de divers aspects de l’intelligence artificielle (IA) et de leur impact sur la société.

Voici les points principaux abordés :

  1. Limites et biais des IA :

    • Les modèles d’IA sont souvent des boîtes noires où les données d’entrée produisent des résultats qui peuvent être biaisés en fonction des données d’entraînement utilisées. Il est difficile de comprendre comment ces résultats sont produits, ce qui rend difficile la détection et la correction des biais.
  2. La transparence et la responsabilité:

    • Les modèles comme LLaMA de Meta sont des poids ouverts mais non source ouverts, ce qui signifie qu’on peut utiliser les poids, mais on ne peut pas voir comment ils fonctionnent réellement. Cela pose des problèmes de transparence et de responsabilité.
  3. La responsabilité et l’éthique des grandes entreprises de la tech :

    • Les grandes entreprises comme Meta, OpenAI et Microsoft sont les seules à avoir les ressources nécessaires pour former des modèles d’IA depuis le début. Les autres, comme l’Institut Allen, utilisent la distillation, ce qui signifie qu’ils commencent par des modèles pré-entrainés sur des ensembles de données préexistants. Ils ne commencent pas à partir de zéro, mais utilisent des données déjà existantes.
  4. Les initiatives de modèles d’IA responsables:

    • Il y a des initiatives en cours au Canada, aux États-Unis et d’autres pays pour créer des modèles d’IA plus responsables en se basant sur des données volontaires. Cependant, il est important de rester vigilant, car on ne connaît pas les données exactes utilisées pour entrainer ces modèles.

Notre conversation souligne l’importance de la transparence et de la responsabilité éthique dans le développement des IA. Les auditeurs sont encouragés à comprendre les limitations des modèles et à rester vigilants aux biais et aux impacts sur la société. Les grandes entreprises technologiques dominent le marché, mais il y a des initiatives pour changer ça.

Écouter notre conversation (en anglais)

Offre de service

Moon Phases IconConsultation stratégique IA et vie privée — 2 heures — 490 $Moon Phases Icon

Tu veux intégrer l’IA sans compromettre les données de ta clientèle ? En 2 heures, je t’aide à définir une stratégie IA responsable, basée sur les normes ISO et IEEE.

La consultation inclut un plan d'action détaillé pour mettre en œuvre les recommandations et prioriser les étapes suivantes.

Réserve ta Consultation stratégique
Abonne-toi au fil RSS pour ne rien manquer.

Étiquettes