Autisme : les scientifiques et le problème de la réplication de l'imagerie cérébrale

Scans biaisés : Les différences entre les sites d'étude et les méthodes d'analyse rendent difficile la reproduction des résultats d'imagerie.

spectrumnews.org Traduction de "How autism scientists are tackling brain imaging’s replication problem"

Comment les scientifiques spécialistes de l'autisme s'attaquent au problème de la réplication de l'imagerie cérébrale 
par Angie Voyles Askham / 30 juin 2021

 © Spectrum News © Spectrum News

Lorsque le dernier article de recherche de Maxwell Elliott a commencé à faire le tour de Twitter en juin dernier, il ne savait pas trop comment se comporter.

Elliott, étudiant diplômé en psychologie clinique dans le laboratoire d'Ahmad Hariri à l'université Duke de Durham, en Caroline du Nord, étudie l'imagerie par résonance magnétique fonctionnelle (IRMf) et la façon dont elle peut être utilisée pour mieux comprendre les troubles neurologiques tels que la démence et l'autisme.

Il était ravi que cet aspect "minutieux" du domaine, comme il le décrit, suscite un peu plus d'attention, mais la raison de ce buzz l'a déçu : un média avait repris le sujet et l'avait publié avec un titre exagéré : "Des chercheurs de l'université Duke affirment que toutes les études sur l'activité cérébrale que vous avez lues sont fausses."

"Il semble qu'ils n'aient rien compris à l'affaire", explique Elliott.

Son étude, publiée dans "Psychological Science", n'a pas écarté 30 ans de recherche sur l'IRMf, comme le suggérait le titre. Elle a toutefois remis en question la fiabilité des expériences qui utilisent l'IRMf pour mettre en évidence les différences dans la façon dont les cerveaux des personnes réagissent à un stimulus. Pour certaines activités, comme les tâches de traitement des émotions, les différences individuelles dans les schémas d'activité cérébrale ne se maintiennent pas lorsque les personnes sont scannées plusieurs fois, à plusieurs mois d'intervalle, ont montré Elliott et ses collègues.

Elliott s'inquiétait de la réaction des chercheurs qui utilisent ces schémas pour tenter de distinguer les personnes avec certaines conditions neuropsychiatriques, dont l'autisme, de celles qui ne le sont pas. Les reportages à sensation n'ont fait qu'accentuer cette crainte.

Nombreux sont les spécialistes de l'imagerie cérébrale qui ont pris la défense d'Elliott et de ses collègues et qui ont condamné la mauvaise interprétation du média, mais d'autres ont contesté l'étude et ce qu'ils considèrent comme une généralisation excessive des limites de l'IRMf. Des deux côtés, l'idée que l'IRMf a un problème de fiabilité a touché une corde sensible, qui s'est répercutée largement sur la sphère Twitter.

Malgré tout le battage de l'année dernière, les inquiétudes concernant la recherche en imagerie cérébrale ne sont pas nouvelles. Les critiques ont déjà affirmé, à tort, que l'IRMf est si inutile qu'elle peut trouver un signal dans un saumon mort et, plus raisonnablement, que même la respiration peut fausser les résultats des scanners cérébraux au point de les rendre inutilisables.

Quoi qu'il en soit, de nombreux chercheurs en imagerie cérébrale sont optimistes quant aux possibilités offertes par ces outils. Ils ne rejettent pas les problèmes soulevés par d'autres scientifiques, mais ils ont tendance à les considérer comme des difficultés de croissance dans un domaine encore relativement nouveau. Certains problèmes, notamment ceux qui découlent de la collecte et de l'analyse des données, peuvent probablement être résolus ; d'autres sont peut-être plus endémiques aux méthodes elles-mêmes. Mais aucun n'est aussi grave que ne le proclament les tweets et les gros titres.

"Il n'y a pas de mal à rappeler aux gens qu'il faut garder ces limites à l'esprit, quel que soit le degré d'avancement du domaine", déclare Kevin Pelphrey, professeur de neurologie au Brain Institute de l'université de Virginie à Charlottesville.

Nettoyer le circuit

Certains problèmes liés aux études d'imagerie commencent dès la collecte des données. L'ensemble de données ABIDE (Autism Brain Imaging Data Exchange), par exemple, a été lancé avec un nombre relativement faible de scans - de 539 personnes autistes et 573 personnes non autistes - sur 17 sites différents, et une première analyse de l'ensemble de données a révélé une grande variabilité en fonction du lieu des scans. Une étude de 2015 a montré que cette variabilité pouvait même conduire à de faux résultats.

Depuis lors, les chercheurs qui dirigent ABIDE ont ajouté 1 000 autres scanners cérébraux et utilisent un total de 19 sites. La taille plus importante des échantillons devrait améliorer certains des problèmes de reproductibilité entre les scans, a déclaré l'équipe. Ils prévoient également de se réunir en groupe pour discuter de la manière de standardiser la collecte des données.

D'autres problèmes surviennent lorsque les données d'imagerie atteignent le stade de l'analyse. En mai 2020, quelques semaines à peine avant qu'Elliott et ses collègues ne publient leur étude, une équipe de l'université de Tel Aviv en Israël a publié un article dans "Nature" montrant comment différents protocoles d'analyse des données d'IRMf peuvent également conduire à des résultats très variables.

Dans ce travail, 70 équipes de recherche distinctes ont analysé le même ensemble de données brutes d'IRMf, chaque équipe testant les mêmes neuf hypothèses, mais comme aucune des deux équipes n'a utilisé exactement le même flux de travail pour analyser les scans, elles ont toutes fini par rapporter des "résultats" différents.

Les problèmes de flux de travail affectent également les IRM structurelles, qui révèlent l'anatomie du cerveau plutôt que l'activité. Bien que cette forme d'IRM soit plus fiable que l'IRMf d'un balayage à l'autre, selon l'étude d'Elliott et de ses collègues, une enquête non publiée a montré comment 42 groupes essayant de retracer les trajets de la matière blanche dans le même cerveau ont rarement produit les mêmes résultats. (Une étude de 2017 a révélé que les groupes pouvaient identifier avec succès 90 % des trajets sous-jacents, mais non sans produire un grand nombre de faux positifs).

Selon Pelphrey, les incohérences du flux de travail sont l'une des principales raisons pour lesquelles les résultats de l'imagerie cérébrale sont difficiles à reproduire. Chaque décision prise au cours de l'analyse d'un ensemble d'images - comme le choix d'un seuil d'activité cérébrale, par exemple - repose sur des hypothèses qui peuvent finir par avoir des effets significatifs, explique-t-il.

De la même manière, les différentes méthodes utilisées par les chercheurs pour tracer la matière blanche peuvent modifier l'interprétation de deux tracés proches l'un de l'autre, à savoir qu'ils se croisent comme un "X" ou qu'ils s'embrassent et s'éloignent l'un de l'autre, explique Ruth Carper, professeure associée de psychologie à l'université d'État de San Diego, en Californie. Le choix de la définition de la frontière entre la matière grise et la matière blanche dans le cortex peut également fausser les résultats.

Pour résoudre ce genre de problèmes, l'Organisation pour la cartographie du cerveau humain (OHBM) a publié des recommandations pour l'analyse des données d'IRM et d'IRMf en 2016 et a ajouté des directives pour l'électroencéphalographie et la magnétoencéphalographie, qui sont utilisées de manière similaire pour collecter des données sur des cerveaux vivants, l'année suivante. L'organisation travaille actuellement à une mise à jour de ces recommandations.

Selon John Darrell Van Horn, professeur de psychologie et de sciences des données à l'université de Virginie et coprésident du comité des meilleures pratiques de l'OHBM, l'idée derrière ces lignes directrices est d'aider les chercheurs à faire de meilleurs choix tout au long de leur processus d'analyse.

Les lignes directrices encouragent également "tout le monde à être transparent sur les [analyses] qu'ils ont effectuées, afin que ce ne soit pas un mystère", ajoute M. Van Horn.

Outre l'amélioration de la reproductibilité, une plus grande transparence permet aux chercheurs de déterminer plus facilement si un processus d'analyse est meilleur qu'un autre, explique Tonya White, professeure associée de psychiatrie de l'enfant et de l'adolescent à l'Université Erasmus de Rotterdam, aux Pays-Bas, qui a également travaillé sur les lignes directrices de l'OHBM.

"Si vous élaborez un nouvel algorithme que vous dites meilleur, mais que vous ne le comparez pas à l'ancienne méthode, comment pouvez-vous vraiment savoir s'il est meilleur ?"dit-elle.

Tenir le coup 

Pour de nombreux scientifiques, l'amélioration de la collecte et de l'analyse des images est la seule voie possible. Malgré les défis que cela implique - et les rapports selon lesquels les chercheurs se détournent de l'imagerie cérébrale - pour certains champs d'investigation, il n'y a pas de substitut.

"Vous ne pouvez pas poser des questions sur le langage chez un rat" ou sur les changements cérébraux au fil du temps en utilisant des tissus post-mortem, explique Carper.

De nombreux résultats d'imagerie se maintiennent dans le temps : certaines zones du cerveau s'activent en réponse aux mêmes stimuli chez toutes les personnes ; les gens ont des schémas de connectivité individuels ; et les scanners peuvent prédire des catégories importantes de comportement, comme les fonctions exécutives et les capacités sociales, dit Pelphrey. Et lorsque les résultats sont incohérents, comme c'est le cas dans les études par IRMf du traitement de la récompense chez les personnes autistes, certains chercheurs ont commencé à mettre en œuvre un algorithme qui permet de repérer les régions du cerveau qui sont systématiquement activées en réponse à la tâche.

"Il y a beaucoup de choses qui ont été reproduites d'un laboratoire à l'autre et qui ont imposé des contraintes aux théories sur le fonctionnement de l'esprit, en raison de la connaissance du fonctionnement du cerveau", déclare Pelphrey. "Je ne pense pas que tout cela ait disparu, simplement parce que nous savons que nous devons être très prudents quant aux prévisions que nous faisons d'un scanner à l'autre chez un même individu."

À mesure que les scientifiques s'améliorent dans la collecte et l'analyse des données d'imagerie, ils peuvent également améliorer leurs interprétations de ces données, en s'appuyant sur une compréhension plus claire de la technologie qu'ils utilisent, explique Carper. Dans le cas de l'IRMf, par exemple, la plupart des tâches ont été mises au point pour identifier les zones du cerveau qui répondent généralement à un stimulus donné, et non pour étudier les différences individuelles. De plus, certains types de stimuli naturels peuvent produire des résultats plus fiables, selon Elliott et ses collègues dans une étude publiée ce mois-ci dans "Trends in Cognitive Sciences".

Le nouvel article décrit d'autres stratégies permettant de contourner les problèmes de fiabilité de l'IRMf signalés par l'équipe l'année dernière. Il s'agit notamment de réaliser des scans plus longs pour recueillir davantage de données, de développer de meilleures méthodes pour modéliser le bruit dans un scan et de tirer parti des nouvelles technologies qui permettent de mieux isoler les marqueurs de l'activité neuronale.

Elliott a utilisé Twitter pour promouvoir ses nouveaux travaux, mais il n'est pas intéressé par une autre controverse sur les médias sociaux. Il est simplement impatient de savoir ce que les gens pensent de l'article lui-même.

"Je veux réfléchir à [ces idées] sous une forme plus longue et plus efficace qu'un tweet."

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.