Une IA en soi n’a pas à être éthique !
C’était là l’objet du débat lors de la table ronde à laquelle notre associée Delphine Jaafar a pu participer dans le cadre de l’édition 2025 MasterDevFrance – le grand RDV de la tech sous le patronage du Ministère chargé du numérique – sur l’invitation de Judith Mehl, Directrice des relations institutionnelles et extérieures chez Docapost et aux côtés de Claude Kirchner, Président du Comité consultatif national d’éthique du numérique, Jean-Gabriel Ganascia, membre de l’Institut Universitaire de France et David Gruson, Directeur du programme Santé à domicile La Poste Santé & Autonomie.
L’IA est un outil entre les mains de l’humain et ne peut être éthique.
C’est bien l’usage de l’outil par l’humain qui doit être éthique.
Il faut éviter l’anthropomorphisation de l’IA mais réfléchir à l’éthique de son usage.
L’éthique et le droit sont deux notions souvent confondues dans les débats autour de l’IA et plus spécifiquement de l’IA dans le secteur de la santé. Pourtant, si le droit impose des règles, l’éthique pose des principes. Le premier est contraignant et sanctionnable, le second relève d’un cadre de réflexion évolutif.
Aujourd’hui, la régulation des IA en santé doit naviguer entre ces deux exigences pour concilier innovation et protection des droits fondamentaux.