PEUT-ON APPRENDRE AUX ALGORITHMES À NE PAS ÊTRE SEXISTES ?

(10/09/2022)


Conférence dans le cadre des Congrès scientifiques mondiaux TimeWorld : TimeWorld expose et anime la connaissance sous toutes ses formes, théorique, appliquée et prospective. TimeWorld propose un état de l'art sur une thématique majeure, avec une approche multiculturelle et interdisciplinaire. C'est l'opportunité de rencontres entre chercheurs, industriels, universitaires, artistes et grand public pour faire émerger des idées en science et construire de nouveaux projets.
https://timeworldevent.com/fr/

-------------------------------

Daphné Marnat experte en sciences sociales est une entrepreneure qui depuis quinze ans accompagne les entreprises dans leur déploiement technologique du point de vue de leurs utilisateurs (études des données, des conditions d’appropriation de la technologie). Unbias est sa deuxième création d’entreprise. Elle milite pour une technologie au service de l’humain, pour la place des femmes dans l’entreprenariat et la technologie. Spécialiste de la donnée, elle défend une donnée qualitative non pas issue de la quantité, mais du sens, de la vraie intelligence.

Conférence : Peut-on apprendre aux algorithmes à ne pas être sexistes ?
Jeudi 5 mai 2022, 16h - 16h45 — Amphi rouge

Les biais ne sont pas en soi un problème, puisque ce sont eux qui permettent de distinguer une information d’une autre. Sans eux, il n’y a ni conceptualisation ni langage possible. En traitement automatique du langage (TAL), plus on maîtrise les biais, plus on est performant. Spécialistes du TAL, ce mantra nous a permis à la fois de faire un bond de performance algorithmique, sans passer par les gros modèles d’apprentissage trop coûteux en datas et en énergie. Mais surtout cela nous a permis d’identifier là où se forment les risques discriminatoires, notamment le sexisme, dans le langage. Cette détection est d’autant plus importante, qu’il est difficile pour l’humain de le faire, coincé dans ses représentations implicites. Nous vous montrerons ce que la machine détecte et propose pour obtenir un langage épicène, c’est-à-dire non discriminant du point de vue du genre. Ce cas d’usage est un belle illustration de la manière dont l’intelligence artificielle peut aider à résoudre un problème sociétal complexe, et de rétablir le dialogue entre les humain.e.s.


Partager cette vidéo :

Revenir à la liste de vidéos