Une étude récente s'est particulièrement penchée sur l'utilisation de ChatGPT, un agent conversationnel développé par OpenAI, pour la prise en charge de la dépression clinique. Les résultats suggèrent que ChatGPT "pourrait être meilleur que les médecins" dans certaines situations.
Les chercheurs derrière cette étude ont exploré la capacité de ChatGPT à prendre des décisions concernant des patients présentant des symptômes dépressifs, en comparaison avec un groupe de 1 249 médecins généralistes français. Ils ont soumis divers scénarios à ChatGPT, impliquant des patients fictifs souffrant de symptômes dépressifs tels que la tristesse, des troubles du sommeil et une perte d'appétit au cours des trois semaines précédentes, avec un diagnostic de dépression légère à modérée établi lors d'une consultation initiale.
Les résultats montrent que ChatGPT a souvent recommandé des approches thérapeutiques en accord avec les normes cliniques, telles que la psychothérapie, beaucoup plus fréquemment que les médecins. Par exemple, pour les cas de dépression légère, ChatGPT a recommandé la psychothérapie "conformément aux recommandations cliniques" dans 97,5% des cas (pour la version 4), alors que les médecins avaient, à 48%, tendance à proposer des traitements médicamenteux exclusifs ou une combinaison de psychothérapie et de médicaments (32,5%).
Pour les cas de dépression sévère, ChatGPT a de nouveau recommandé la psychothérapie et des médicaments conformément aux directives cliniques dans une plus grande proportion que les médecins. De plus, ChatGPT a montré une plus grande précision dans l'ajustement du traitement pour respecter les directives cliniques, en évitant les biais liés au sexe et au statut socio-économique.
Cependant, il est important de noter que cette étude présente certaines limites. Les chercheurs ont utilisé un échantillon de médecins français, ce qui peut soulever des questions sur la généralisation des résultats. De plus, l'étude s'est basée sur des scénarios de première consultation pour des symptômes dépressifs, sans prendre en compte des antécédents médicaux ou des traitements en cours, ce qui ne reflète pas la pratique médicale réelle.
Enfin, des préoccupations éthiques concernant la protection de la vie privée et la sécurité des données sont importantes, en particulier dans le contexte des données sensibles liées à la santé mentale. En conséquence, les chercheurs soulignent que l'IA ne devrait jamais se substituer au jugement clinique humain dans le diagnostic et le traitement de la dépression.
Frank Verain
|