Les contrôles européens visant à atténuer le biais des systèmes d’intelligence artificielle dans le domaine de la santé sont insuffisants

2025/05/26 Elhuyar Zientzia Iturria: Elhuyar aldizkaria

ARG Pexels / Pixabay

Les contrôles européens visant à atténuer le biais dans les systèmes de santé fondés sur l'intelligence artificielle sont insuffisants. Cette conclusion a été tirée, entre autres, par les chercheurs Iñigo de Miguel Beriain (EHU) et Guillermo Lazcoz Moratinos (Institut de santé Charles III) dans leur étude publiée dans la revue Bioethics. Les chercheurs ont proposé d'autres politiques pour résoudre le problème des biais dans ces systèmes.

Les systèmes d’intelligence artificielle sont de plus en plus utilisés pour aider à diagnostiquer ou recommander aux patients les traitements les mieux adaptés. Mais ces systèmes présentent également des risques. L'un des principaux problèmes est celui des biais. Par exemple, supposons que nous utilisions un système entraîné avec des personnes d'une population où la peau est très claire, ce système a un biais évident, car il ne fonctionne pas bien avec les peaux plus bronzées. Les préjugés constituent un grave problème de santé, car non seulement ils nuisent à l'exactitude, mais ils affectent particulièrement certains secteurs de la population.

De Miguel et Lazcoz ont étudié des politiques pour atténuer ces biais. Ces politiques sont reflétées dans les nouvelles réglementations européennes sur l’intelligence artificielle et l’Espace européen des données de santé (ODEE). Et les chercheurs ont constaté que la réglementation européenne sur les dispositifs médicaux pourrait être inadéquate pour relever ce défi qui n'est pas seulement technique, mais aussi social. Ils soulignent que de nombreuses façons de vérifier les dispositifs médicaux remontent à l’époque où il n’y avait pas d’IA.

Les chercheurs pensent que la meilleure façon de résoudre les problèmes de biais n'est pas d'augmenter la quantité de données. C'est une solution réductrice, selon eux. De plus, cette stratégie comporte des risques, notamment liés à la vie privée. D'autre part, ils avertissent que si des données supplémentaires sont nécessaires, il est nécessaire de bien analyser où et comment elles sont traitées.

D'autre part, les chercheurs ont suggéré la possibilité d'inclure dans l'article des mécanismes de validation obligatoires. Ces mécanismes s'appliqueraient non seulement aux stades de la conception et du développement, mais aussi après la commercialisation. Par exemple, ils proposent que, tout comme le fonctionnement des nouveaux médicaments est testé à petite échelle, les systèmes d'IA, au lieu d'être testés à grande échelle, par exemple, devraient être testés dans un seul hôpital. Et après avoir vu qu'ils fonctionnent, qu'ils sont sûrs, etc., alors ils devraient s'étendre à d'autres endroits.

Gai honi buruzko eduki gehiago

Elhuyarrek garatutako teknologia