LES SYSTÈMES D’IA PEUVENT-ILS S’ADAPTER À LA DIVERSITÉ CULTURELLE ?

(04/08/2022)


Conférence dans le cadre des Congrès scientifiques mondiaux TimeWorld : TimeWorld expose et anime la connaissance sous toutes ses formes, théorique, appliquée et prospective. TimeWorld propose un état de l'art sur une thématique majeure, avec une approche multiculturelle et interdisciplinaire. C'est l'opportunité de rencontres entre chercheurs, industriels, universitaires, artistes et grand public pour faire émerger des idées en science et construire de nouveaux projets.
https://timeworldevent.com/fr/

-------------------------------

Marie-Jean Meurs Professeur d'informatique.

Marie-Jean Meurs est professeur d'informatique à l'Université du Québec à Montréal (UQAM). Elle est titulaire d'une maîtrise en mathématiques appliquées et d'un doctorat en informatique avec une spécialisation en compréhension du langage naturel dans les systèmes de dialogue. Son principal domaine d'expertise est l'intelligence artificielle (IA), en particulier l'apprentissage automatique pour le traitement du langage naturel. Vice-présidente du conseil des chercheurs de l'Alliance de recherche numérique du Canada, directrice scientifique de Calcul Québec et membre fondatrice du groupe de recherche HumanIA, Marie-Jean Meurs est membre du Centre interuniversitaire de recherche sur la science et la technologie (CIRST). Spécialiste de l'analyse des sentiments, notamment appliquée à la santé, elle dirige actuellement l'équipe RELAI, qui étudie comment un développement respectueux et explicable de l’IA peut aider les personnes en difficulté et les praticiens de la santé mentale.

Conférence : Les systèmes d’IA peuvent-ils s’adapter à la diversité culturelle ?
Jeudi 5 mai 2022, 13h45 - 14h30 — Amphi rouge

Toutes les disciplines universitaires présentent aujourd’hui une sensibilité accrue à l'égard de l'égalité des sexes, de l'inclusion, de la compétence interculturelle, de l'antiracisme et des pratiques antidiscriminatoires. En intelligence artificielle (IA), ce phénomène a été discuté principalement sous l’angle des biais algorithmiques. Pourtant, bien qu'il existe un grand nombre de publications sur l'éthique de l'IA, peu s’intéressent à l’adaptation de l'IA à la diversité culturelle. Cette présentation expliquera pourquoi la diversité culturelle doit être prise en compte dès le début du développement des systèmes d'IA. En nous concentrant sur les applications du traitement du langage naturel à la détection des risques en santé mentale, nous nous demanderons comment un modèle unique pourrait répondre efficacement aux besoins des soins de santé. L'impact de la structure et des caractéristiques du langage sur la détection des risques en santé mentale étant clairement démontré, il est indispensable de s'interroger sur la sensibilité culturelle de modèles qui tirent leurs informations des cultures européennes ou nord-américaines et qui sont entraînés uniquement sur des corpus en anglais


Partager cette vidéo :

Revenir à la liste de vidéos