- 20 avr. 2025
L’intelligence artificielle peut-elle aider au raisonnement clinique pour le diagnostic du TDAH ?
- Sébastien Henrard
- 2 comments
Depuis quelques années, l’intelligence artificielle (IA) s’immisce dans les pratiques de santé mentale. Outils d’aide à la décision, assistants de rédaction de compte-rendus, synthèses automatiques de dossiers cliniques... le champ de la neuropsychologie n’y échappe pas. À une époque où la demande explose et où le temps manque, l’IA suscite autant d’espoirs que d’inquiétudes. Mais si l’on se concentre sur le diagnostic du TDAH, peut-elle réellement soutenir notre raisonnement clinique ?
Un diagnostic déjà fondé sur une logique algorithmique
Avant même de parler d’IA, il faut rappeler un fait souvent sous-estimé : le diagnostic du TDAH repose déjà sur un algorithme décisionnel implicite.
En clinique, poser un diagnostic revient à :
Repérer des symptômes spécifiques (inattention, impulsivité, hyperactivité),
Les mettre en lien avec un retentissement fonctionnel,
Vérifier leur temporalité et leur présence dans plusieurs contextes,
Exclure d’autres causes possibles.
Ce processus suit une série d’étapes logiques, souvent formalisées dans des entretiens cliniques comme la DIVA ou la K-SADS par exemple. Chaque réponse alimente un raisonnement arborescent, qui oriente vers ou contre le diagnostic. En cela, le raisonnement clinique est déjà une forme d’algorithme humain.
C’est précisément ce qui rend l’IA pertinente : elle peut aider à structurer ce raisonnement, à ne pas oublier d’étapes, à vérifier la cohérence globale du tableau, et même à proposer des hypothèses alternatives en cas d’incohérence.
L’IA comme soutien, pas comme juge
Il est donc possible d’imaginer un assistant intelligent, capable de :
Analyser rapidement les données issues de l’entretien clinique, des questionnaires, des observations,
Signaler des incohérences ou des oublis,
Proposer une cartographie des hypothèses diagnostiques les plus probables,
Générer des questions complémentaires pour affiner l’exploration.
L’IA ne remplace pas le clinicien : elle l’aide à raisonner de façon plus exhaustive, plus rigoureuse, et parfois plus créative. Elle peut aussi soulager la charge cognitive du praticien, en lui rappelant des points de vigilance ou en synthétisant des informations disparates (échelles, documents scolaires, notes libres, etc.).
Ce que l’IA peut (déjà) faire
Plusieurs usages concrets sont déjà en développement ou en test :
Pré-tri des dossiers : certaines plateformes de santé mentale utilisent des IA pour analyser les formulaires d’entrée, et proposer un premier niveau d’analyse.
Reformulation de plaintes : en analysant les mots-clés d’un discours, des modèles peuvent aider à identifier des thématiques cliniques émergentes (fatigue attentionnelle, désorganisation, surcharge émotionnelle...).
Suggestions d’évaluation : l’IA peut suggérer des outils complémentaires, en fonction des réponses déjà obtenues, ou rappeler qu’un contexte scolaire ou familial reste peu exploré.
Soutien à la rédaction : l’automatisation de certaines parties du compte-rendu permet de recentrer le professionnel sur l’analyse, et non sur la mise en forme.
Des freins multiples à son adoption
Malgré ses promesses, l’intégration de l’IA en clinique reste marginale, pour plusieurs raisons :
Méfiance éthique et déontologique
Les professionnels craignent une déshumanisation de la relation clinique, une standardisation excessive ou une surveillance implicite de leur pratique.Opacité des algorithmes
L’IA fonctionne souvent comme une "boîte noire". Or, en santé mentale, il est indispensable de comprendre pourquoi une hypothèse est proposée, pour pouvoir l’accepter ou la réfuter. Une IA qui n’explique pas son raisonnement n’est d’aucune aide. Cependant, aujourd’hui, nous pouvons aussi lui demander quel a été son raisonnement pour mieux le comprendre.Risques de biais
Si l’IA est entraînée sur des données biaisées (surreprésentation de garçons, d’enfants blancs, de profils internalisés ou externalisés...), elle renforcera ces biais et produira des erreurs systémiques.Absence de régulation claire
Aujourd’hui, très peu d’outils IA sont validés, certifiés ou intégrés dans des guides de bonnes pratiques. Leur usage reste expérimental, parfois même artisanal.Formation insuffisante des professionnels
Enfin, l’un des principaux freins est simple : les cliniciens ne sont pas formés à utiliser l’IA. Beaucoup ignorent ce qu’elle peut (et ne peut pas) faire, ce qui alimente la confusion et la méfiance.
Une responsabilité clinique renforcée
Le paradoxe est là : plus l’IA s’invite dans nos pratiques, plus la responsabilité du clinicien devient centrale.
Il ne s’agit pas de suivre les suggestions d’un modèle, mais de les interroger, les remettre en contexte, les intégrer à une démarche globale centrée sur le patient. Dans ce sens, l’IA n’est pas une menace pour la clinique, mais une invitation à mieux formaliser nos raisonnements, à rendre explicite ce qui est souvent implicite.
Elle nous oblige à penser notre pratique, à justifier nos choix, à assumer nos doutes. En cela, elle peut paradoxalement renforcer notre identité clinique, à condition d’être utilisée en conscience.
Conclusion : une opportunité, si elle reste au service du raisonnement humain
L’intelligence artificielle ne pose pas aujourd’hui un diagnostic à notre place. Cependant, elle peut devenir un compagnon de réflexion, un outil de structuration, une alerte face à nos biais. Le TDAH, par sa complexité, son hétérogénéité et son intrication avec d’autres troubles, est un champ propice à cet appui.
À condition de ne jamais oublier que la clinique, c’est d’abord une rencontre, un processus interprétatif, un raisonnement incarné. Et ça, aucune IA aujourd’hui, n’est capable de le reproduire.
2 comments
Bonjour.
Merci de votre réflexion. Cependant pourriez vous préciser à quelle IA vous faites référence ? Avez vous comparé les résultats des différentes IA actuellement disponibles ?
Merci
Non, je n'ai pas comparé les réponses des plus grands LLM entre eux. Pour le moment, mon avis porte surtout sur ChatGPT, Mistral, Claude et Grok.