Notre impact

AccueilQuel type de transparence en IA voulons-nous ?

Quel type de transparence en IA voulons-nous ?

Construire la confiance en IA dans les soins de santé

L’IA transforme la médecine — mais comprendre comment elle fonctionne reste un défi. Lorsque la transparence manque, la confiance et l’adoption en souffrent.

La vraie transparence va au-delà d’« ouvrir la boîte noire » : elle concerne l’explicabilité, la traçabilité, la documentation, la gouvernance et la supervision humaine.

Transformer la transparence en action

  • Le projet XpliCAI rassemble le personnel hospitalier, les patients et les partenaires pour définir la transparence d’un point de vue humain.
  • En identifiant ce qui compte le plus à travers les niveaux éthiques, techniques et institutionnels, XpliCAI comble l’écart entre les normes globales et la pratique hospitalière réelle.

Pourquoi la transparence compte pour la confiance ?

  • La confiance nécessite plus que la performance — la transparence aide à comprendre les processus de l’IA et à prévenir les risques inutiles.
  • La transparence construit la responsabilité, clarifiant les rôles et les responsabilités entre les humains et la technologie.
  • Elle relie l’éthique et la pratique, transformant des principes abstraits en sauvegardes concrètes dans les soins.
  • Elle habilite les utilisateurs, permettant aux patients et aux professionnels de s’engager en toute confiance avec les outils d’IA.

Conçu avec les gens, pour les gens

  • Une approche de conception participative de deux ans est au cœur de cette innovation.
  • 6 ateliers participatifs unissant des professionnels de la santé, des étudiants, des patients et des aidants.
  • Groupes de discussion, entretiens et tri de cartes pour découvrir quels indicateurs de transparence les utilisateurs valorisent le plus.
  • Sessions au EvaLab des HUG, combinant des insights qualitatifs et des retours d’utilisateurs.
  • Prochaine étape : prototypes de tableaux de bord et outils de communication pour rendre les systèmes d’IA plus clairs et plus responsables.
Prof. Christian Lovis, UNIGE et HUG

Prof. Christian Lovis est le chef du Lovis Lab (UNIGE) et de SIMED (HUG). Le projet est dirigé par Dr Laëtitia Gosetto, PhD, chef d’équipe EvaLab à SIMED, et Dr Mina Bjelogrlic, PhD, chef d’équipe ML à SIMED. Leur expertise combinée en explicabilité de l’IA et en facteurs humains assure l’innovation et la pertinence dans cette recherche. Le financement a été fourni par la Fondation privée des HUG.

Leading institution(s)
Domaine(s) de recherche:

Points forts

Ateliers

pour définir les indicateurs de transparence

Groupes d’utilisateurs

incluent des professionnels, des étudiants, des patients et des aidants

18

indicateurs actuellement testés à travers trois niveaux.

Autres recherches dans ce domaine

Psychologie, neurosciences cellulaires et neurosciences cognitives

La connaissance comme récompense

Comparaison de différents types de récompenses Les participants prennent part à une tâche comprenant trois types de récompenses, de valeur élevée ou faible : -...
Plateforme d’Imagerie par Résonance Magnétique (IRM)Plateforme M/EEG & Neuromod (MEG)

Réseaux cérébraux de la mémoire dans l’épilepsie

Cartographie multimodale des réseaux cérébraux Combinaison de l'EEG, de l'IRM à champ ultra-élevé et de modèles animaux Ce projet vise à identifier les marqueurs...
Plateforme d’Imagerie par Résonance Magnétique (IRM)Plateforme M/EEG & Neuromod (MEG)

Pôle IA Soins | Recherche | Innovation

Soins et consultations Accueil des patients pour des consultations systématiques et approfondies, axées sur la santé cérébrale et mentale. Ces consultations sont mises en...

Réduire les récidives d’hématomes sous-duraux chroniques

La MMA est-elle vraiment responsable ? Si de nouvelles données confirment le rôle de la MMA dans le saignement, l'efficacité de l'embolisation de la...
Plateforme d’Imagerie par Résonance Magnétique (IRM)Plateforme M/EEG & Neuromod (MEG)