Les biais de genre dans l'IA et la Data : Comment y remédier ?

Matinale de la Data #9 | Artefact

En collaboration avec notre collectif Women@Artefact

En IA, le biais algorithmique survient lorsque le modèle de machine learning est exposé à des données d’apprentissage subjectives plutôt qu’à un ensemble représentatif, provoquant une déviation des résultats du modèle et remettant en question la fiabilité de la prise de décision.

En collaboration avec notre collectif Woman@Artefact et accompagnés par des experts de ces enjeux, nous vous proposons d’explorer ces biais et de discuter des moyens concrets pour les atténuer, afin de favoriser une utilisation éthique et équitable de l’IA.

Agenda

Speakers

Jean-Marie John-Mathews

PhD, Co-fondateur

GISKARD AI

Camilo Rodriguez

Fondateur

MACHINE LEARNING LAB

Veronika Shilova

Research Scientist on Biases in Computer Vision

UNIVERSITÉ TOULOUSE III PAUL SABATIER

Laurent Risser

PhD, CNRS Research Engineer

TOULOUSE MATHEMATICS INSTITUTE

Emmanuel Malherbe

Head of Research Center

ARTEFACT

  • Inscrivez-vous dès maintenant !

Remplissez le formulaire pour vous inscrire à la conférence.

For more information contact us.