Mar 08, 2023
Rendre l'apprentissage automatique important pour les cliniciens : modéliser l'actionnabilité dans la décision médicale
volume de médecine numérique npj
npj Digital Medicine volume 6, Article number: 7 (2023) Citer cet article
4602 Accès
1 Citations
23 Altmétrique
Détails des métriques
L'apprentissage automatique (ML) a le potentiel de transformer les soins aux patients et les résultats. Cependant, il existe des différences importantes entre la mesure des performances des modèles ML in silico et l'utilité au point de service. Une lentille à utiliser pour évaluer les modèles au début du développement est l'actionnabilité, qui est actuellement sous-évaluée. Nous proposons une métrique d'actionnabilité destinée à être utilisée avant l'évaluation de l'étalonnage et finalement l'analyse de la courbe de décision et le calcul du bénéfice net. Notre métrique doit être considérée comme faisant partie d'un effort global visant à augmenter le nombre d'outils pragmatiques qui identifient les impacts cliniques possibles d'un modèle.
Il existe un intérêt considérable pour l'application de l'apprentissage automatique (ML) aux nombreux problèmes non résolus dans le domaine de la santé. Les modèles publiés peuvent augmenter la sensibilisation des cliniciens, effectuer des tâches de diagnostic, prévoir des événements cliniquement pertinents et guider le processus de prise de décision clinique1. Cependant, malgré d'énormes promesses et investissements, il y a eu une application relativement limitée de ces modèles au point de service2. Cet échec de mise en œuvre est problématique car il limite la capacité d'évaluer l'efficacité du modèle par rapport aux résultats du monde réel.
Les raisons du manque d'adoption du ML sont multifactorielles3. Outre les contraintes de ressources (par exemple, le manque de disponibilité des données, l'infrastructure technique, certaines options thérapeutiques et les champions cliniques), un obstacle important à l'adoption du ML peut être que de nombreuses mesures actuellement utilisées pour évaluer et rapporter les performances du modèle (par exemple, score F1, zone sous la courbe de fonctionnement du récepteur, étalonnage, discrimination, etc.) ne reflètent pas la façon dont un modèle augmenterait la prise de décision médicale4. Cette préoccupation d'optimiser les mesures de performance traditionnelles au lieu de celles plus applicables sur le plan clinique est une occasion manquée de comprendre si un modèle est susceptible d'être exploitable par les cliniciens confrontés à un dilemme clinique.
Nous considérons l'actionnabilité comme une caractéristique des modèles qui reflète leur capacité à augmenter la prise de décision médicale par rapport au seul jugement du clinicien. La meilleure mesure unique mesurant l'utilité clinique d'un modèle est le bénéfice net5, qui estime la relation entre les avantages et les inconvénients d'un modèle sur une gamme de seuils de probabilité de décision et de maladie. Des courbes de décision peuvent être construites pour estimer si le ML ou d'autres modèles prédictifs seraient d'une plus grande utilité (c'est-à-dire un bénéfice net) s'ils étaient appliqués par rapport à différents modèles ou à d'autres stratégies de test/traitement (par exemple, tester/traiter tous les patients). Si un modèle donné présente un bénéfice net plus élevé par rapport aux alternatives, quelle que soit l'ampleur de la différence, l'utilisation du modèle pour prendre la décision clinique pertinente améliorerait les résultats cliniques par rapport aux alternatives. Malheureusement, actuellement, le bénéfice net est une mesure sous-utilisée, et nous pensons qu'il devrait être signalé pour presque tous les modèles ML afin que les lecteurs puissent mieux comprendre son utilité potentielle au chevet du patient.
Cependant, l'analyse de la courbe de décision est destinée à être utilisée sur des modèles raffinés au cours des étapes finales de l'évaluation du modèle. En tant que tel, il n'est pas systématiquement utilisé au début du développement du modèle. Cet article propose une métrique qui peut aider à identifier l'actionnabilité d'un modèle au début du développement, avant l'évaluation de l'étalonnage et finalement l'analyse de la courbe de décision et le calcul du bénéfice net. Notre intention n'est pas de remplacer les mesures traditionnelles de la performance des modèles, car elles sont nécessaires (mais pas suffisantes) pour l'utilité clinique ni ne remplacent le bénéfice net. Nous considérons plutôt notre métrique comme un filtre à orientation clinique à travers lequel certains modèles devraient passer tôt au cours du développement du modèle. Plus largement, nous cherchons à étendre les outils disponibles qui évaluent de manière holistique les impacts cliniques potentiels d'un modèle.
Si nous définissons l'actionnabilité comme une caractéristique des modèles qui reflète leur capacité à augmenter la prise de décision médicale par rapport au seul jugement du clinicien, comment le ML exploitable pourrait-il augmenter la prise de décision médicale ?
Imaginez qu'un clinicien doive établir un diagnostic pour un patient gravement malade avec de la fièvre, puis choisir une séquence appropriée de traitements en fonction de ce diagnostic. Les cliniciens classent généralement en premier les diagnostics raisonnables par ordre de probabilité dans une liste de « diagnostics différentiels » basée sur un processus complexe de collecte, de filtrage et de pondération des données qui est souvent erroné. Par exemple, les antécédents cliniques peuvent être incomplets, l'examen physique peut être peu fiable ou trompeur6,7, et les tests peuvent être anormaux, inexacts ou non diagnostiques8 de sorte que le diagnostic le plus probable sur la liste des diagnostics différentiels est erroné à 40 % du temps9. Même si le clinicien choisit le ou les diagnostics corrects, il doit maintenant décider quels traitements prescrire et dans quel ordre. Prendre cette décision est souvent contesté par de multiples modificateurs potentiels au niveau du patient (par exemple, la gravité de la maladie, la démographie, les comorbidités, les profils d'effets secondaires du traitement), au niveau du prestataire (par exemple, le rôle, la formation préalable, l'expérience, les préjugés) et au niveau du système (par exemple, accès à certains traitements, coût du traitement). Les études d'efficacité comparative et les lignes directrices basées sur la population peuvent fournir des indications, mais leur application à des cas individuels peut être difficile10 et il reste une variabilité substantielle dans la pratique et les résultats pour les problèmes cliniques même courants11.
Que ce soit à la phase « diagnostic » ou « action » de la prise de décision médicale, le dilemme clinique illustré ci-dessus est criblé d'incertitudes. Une incertitude excessive dans la prise de décision médicale est associée à un diagnostic tardif12, à des variations dans la pratique13, à l'insatisfaction/l'anxiété du clinicien14, à des tests excessifs15,16, à des erreurs médicales17 et à des préjudices pour le patient18. La réduction de l'incertitude expose les choix diagnostiques ou thérapeutiques optimaux et supprime les frictions entre les choix concurrents qui sont associés soit à la paralysie décisionnelle, soit à une approche « fusée » familière à de nombreux cliniciens (où de multiples voies d'investigation/de traitement sont poursuivies de manière non spécifique et simultanée, souvent à augmentation des coûts et des dommages pour le patient qu'une stratégie plus adaptée). Par conséquent, les modèles qui ont tendance à réduire l'incertitude dans les scénarios cliniques complexes peuvent être très appréciés par les cliniciens, mais il n'existe pas de mesures d'évaluation ML spécifiquement conçues dans cet esprit.
Nous proposons une métrique qui mesure la capacité d'un modèle à augmenter potentiellement la prise de décision médicale en réduisant l'incertitude dans des scénarios cliniques spécifiques. En pratique, nous envisageons que cette métrique soit utilisée au cours des premières phases de développement du modèle (c'est-à-dire avant le calcul du bénéfice net) pour les modèles multiclasses dans des environnements de soins dynamiques comme les soins intensifs, qui deviennent de plus en plus courants dans les soins de santé19,20,21,22,23.
Pour introduire mathématiquement notre métrique, nous soutenons d'abord que la réduction de l'incertitude dans la prise de décision médicale pourrait refléter les considérations d'un processus décisionnel de Markov partiellement observable (POMDP). Dans un cadre POMDP, le clinicien cherche à déterminer le diagnostic "correct" (dans son état de croyance) et le traitement "optimal" en prédisant les résultats compte tenu d'une action particulière entreprise. Ainsi, deux distributions de probabilité clés sont impliquées : une à la phase de diagnostic où le clinicien cherche à clarifier la distribution des diagnostics possibles, et une seconde à la phase de traitement où le clinicien cherche à clarifier la distribution des états futurs compte tenu des actions (c'est-à-dire , traitements) choisis. Le ML exploitable devrait réduire l'incertitude de ces distributions.
Le degré de réduction de l'incertitude dans ces distributions clés peut être quantifié sur la base de l'entropie. L'entropie est un concept mesurable de la théorie de l'information qui quantifie le niveau d'incertitude des résultats possibles d'une variable aléatoire24. Nous proposons que les cliniciens puissent valoriser la réduction de l'entropie, et notre métrique d'actionnabilité est donc fondée sur le principe que l'actionnabilité augmente avec la capacité du ML à diminuer progressivement l'entropie des distributions de probabilité au cœur de la prise de décision médicale (Fig. 1).
L'actionnabilité augmente généralement avec la diminution de l'entropie de la distribution de probabilité de possibilité de diagnostic et/ou de la distribution de probabilité conditionnelle de l'état futur pendant les phases clés de la prise de décision médicale. S1 État 1, S2 État 2, S3 État 3, S4 État 4, Sn le Nième État.
Revenant au modèle multiclasse qui prédit le diagnostic chez un patient en état critique souffrant de fièvre (parmi une liste de diagnostics possibles tels qu'infection, malignité, insuffisance cardiaque, fièvre médicamenteuse, etc.), un chercheur en ML pourrait utiliser l'équation ci-dessous. L'équation est à des fins d'illustration, reconnaissant que des données supplémentaires sont nécessaires pour déterminer les diagnostics raisonnables dans la liste des diagnostics différentiels et leurs probabilités de base. Ce modèle « clinicien seul » pourrait être obtenu en demandant à un échantillon de cliniciens d'évaluer des scénarios en temps réel ou rétrospectivement pour déterminer les possibilités diagnostiques raisonnables et leurs probabilités sur la base des données cliniques disponibles.
Pour chaque échantillon d'un ensemble de données de test, l'entropie de la sortie du modèle candidat (c'est-à-dire la distribution de probabilité des diagnostics prédits) est calculée et comparée à l'entropie de la sortie du modèle de référence, qui par défaut est le modèle du clinicien seul mais il peut également s'agir d'autres modèles de ML. Les différences sont moyennées sur tous les échantillons pour déterminer la réduction nette d'entropie (ML - référence) comme illustré ci-dessous en utilisant la notation commune aux POMDP :
(1) Modèle du clinicien seul :
(2) Avec ML Modèle 1 :
(3) Avec ML Modèle 2 :
Où, \(s_t \in S\) est l'état sous-jacent du patient (par exemple, une infection) au temps t dans un domaine S correspondant à un ensemble de tous les états possibles raisonnables (par exemple, différentes causes de fièvre, y compris, mais sans s'y limiter, une infection ) et \(o_t \in O\)sont les observations cliniques (par exemple, les diagnostics antérieurs et les antécédents médicaux, l'examen physique actuel, les données de laboratoire, les données d'imagerie, etc.) au temps t dans un domaine O correspondant à l'ensemble de tous les observations.
Par conséquent, l'actionnabilité du modèle ML candidat à la phase de diagnostic (c'est-à-dire l'état actuel) (Δs) peut être quantifiée comme suit : \(\Delta ^{{{s}}} = {{{H}}}^{{ {s}}}_{{{0}}} - {{{H}}}^{{{s}}}_{{{m}}}\), où \({{{H}}} _{{{0}}}^{{{s}}}\) est l'entropie correspondant à la distribution de référence (généralement le modèle du clinicien seul, correspondant à \({{{H}}}^{{{s} }}_{{{c}}}\)).
Fondamentalement, le modèle apprend la distribution conditionnelle des différents diagnostics sous-jacents possibles compte tenu des observations (voir l'exemple de calcul dans la Fig. 1 supplémentaire). L'étendue de l'actionnabilité d'un modèle est la réduction mesurable de l'entropie lorsque l'on utilise le modèle ML par rapport au modèle de référence.
En continuant avec l'exemple clinique ci-dessus, le clinicien doit alors choisir une action à effectuer, par exemple quel régime antibiotique prescrire parmi un choix de nombreux régimes antibiotiques raisonnables. Chaque paire état-action correspond de manière probabiliste à différents états futurs potentiels, qui ont donc une entropie de distribution. Reconnaissant que des données supplémentaires sont nécessaires pour définir les probabilités de transition pertinentes \(p^ \ast (s_{t + 1}|s_{t,}a_t)\) (c'est-à-dire les rapports bénéfice/risque) pour chaque paire état-action ( qui, idéalement, peuvent être estimées par des cliniciens ou des données empiriquement dérivées de cohortes rétrospectives représentatives), un chercheur en ML pourrait effectuer une évaluation de l'actionnabilité des modèles multiclasses candidats. L'évaluation de l'actionnabilité repose sur la comparaison des entropies des distributions de l'état futur avec et sans ML et est calculée de la même manière que la phase de diagnostic, où les différences d'entropie de distribution (modèle de référence - modèle ML candidat) sont calculées pour chaque échantillon du test. ensemble de données, puis moyenné. L'équation suivante, ou une variante de celle-ci, peut être utilisée pour déterminer l'actionnabilité pendant la phase de traitement des soins :
Distribution de probabilité de l'état futur (P (st+1|st)
(4) Sans ML (par exemple, action/politique du clinicien seul) :
(5) Avec ML (par exemple, l'action/politique recommandée par le modèle entraîné) :
Où, St+1 est l'état futur souhaité (par exemple, résolution de l'infection), St est l'état actuel (par exemple, fièvre) au temps t, \(a_t \in A\) est l'action entreprise au temps t dans un domaine A correspondant à un ensemble d'actions possibles raisonnables (c'est-à-dire différents schémas antibiotiques), \(\pi _c(a_t|s_t)\) est la politique choisie par le clinicien au temps t (par exemple, traiter avec le schéma antibiotique A) et \( \pi _m(a_t|s_t)\) est la politique recommandée par ML au temps t (par exemple, traiter avec le schéma antibiotique B).
Entropie (H) de la distribution de probabilité de l'état futur
Chaque distribution de probabilité d'état futur provient d'une distribution d'états futurs possibles avec l'entropie associée, que nous illustrons comme suit :
(6) Sans ML :
(7) Avec ML :
Par conséquent, l'actionnabilité du modèle ML candidat à la phase d'action (c'est-à-dire l'état futur) (Δa) peut être quantifiée comme \(\Delta ^{{{a}}} = {{{H}}}^{{{ a}}}_0 - {{{H}}}^{{a}}_{{{m}}}\), où \({{{H}}}_0^{{{a}}}\ ) est l'entropie correspondant à la distribution de référence (typiquement le modèle clinicien seul).
Le modèle apprend essentiellement la distribution conditionnelle des états futurs compte tenu des actions entreprises dans l'état actuel, et l'actionnabilité est la réduction mesurable de l'entropie lorsque l'on utilise le modèle ML par rapport au modèle de référence (généralement le clinicien seul).
Malgré les formidables promesses, l'adoption du ML pour les décisions difficiles dans la pratique clinique reste relativement limitée. L'un des principaux objectifs de cet article était de participer à une discussion approfondie sur les métriques pragmatiques qui pourraient aider à évaluer l'utilité clinique plus directement que les métriques traditionnelles de la performance des modèles. Le bénéfice net est la meilleure mesure pour évaluer l'impact clinique d'un modèle au chevet du patient et il doit être mesuré et rapporté avec une fréquence plus élevée que celle actuellement trouvée dans la littérature ML. Cependant, l'analyse de la courbe de décision doit être effectuée au cours des étapes finales de l'évaluation du modèle, et nous proposons un autre outil conçu pour le développement précoce du modèle qui peut avoir une valeur pour les cliniciens utilisateurs finaux de ML conçu pour des algorithmes complexes et multiclasses dans des environnements de soins dynamiques. Lorsque des centaines de modèles ou de paramétrisations de modèles sont calibrés ou ajustés, nous pensons que les chercheurs pourraient appliquer un autre filtre à orientation clinique en se demandant : dans quelle mesure les modèles candidats pourraient-ils être exploitables, c'est-à-dire augmenter la prise de décision médicale par rapport au seul jugement du clinicien ? Nous avons soutenu que l'actionnabilité pourrait être liée à la réduction de l'incertitude et que la réduction de l'incertitude pourrait être mesurée à l'aide de l'entropie appliquée aux distributions de probabilité clés dans un cadre POMDP.
Le cadre d'actionnabilité et de réduction d'entropie n'est pas parfait, et nous reconnaissons des limites importantes qui empêchent son utilisation plus tard au cours du développement du modèle (c'est-à-dire, lorsque le bénéfice net doit être calculé) ou de manière isolée. Par exemple, nous reconnaissons qu'un modèle qui ne parvient pas à réduire de manière significative l'entropie peut ne pas nécessairement manquer d'utilité clinique et, inversement, un modèle qui réduit de manière significative l'entropie mais qui, par ailleurs, fonctionne mal peut simplement se tromper en toute confiance. De plus, la réduction de l'incertitude est probablement importante pour la prise de décision médicale, mais la ligne reliant la réduction de l'incertitude et la prise de décision médicale n'est pas absolue et linéaire, mais plutôt imparfaite. Par exemple, même des modèles robustes qui réduisent l'entropie par rapport à d'autres modèles ou au seul jugement du clinicien peuvent ne pas être exploitables pour diverses raisons (par exemple, un diagnostic différentiel à faible entropie peut ne pas modifier l'approche de test, une distribution d'état futur à faible entropie peut ne pas être cliniquement modifiable et donc aucune action n'est effectuée) et certains modèles qui augmentent l'entropie peuvent être actionnables pour diverses raisons (par exemple, les modèles qui "dépistent" les diagnostics et introduisent plus d'incertitude en augmentant de manière appropriée la probabilité de maladies pour les patients faible risque de base). Nous reconnaissons que notre métrique peut également être affectée par notre choix arbitraire de cibler la réduction d'entropie des distributions d'état futur lorsque d'autres peuvent avoir ciblé la réduction d'entropie de différentes politiques. Enfin, notre métrique peut être sensible aux techniques de modélisation qui impactent la complexité des distributions de probabilité. Un modèle simple qui prédit toujours la probabilité d'un diagnostic donné à 100 % (et d'autres diagnostics raisonnables à 0 %) semblera avoir plus d'actionnabilité en utilisant le cadre proposé qu'un modèle plus compliqué qui couvre une plage plus large de l'espace de probabilité. Compte tenu de ces limites, nous réitérons que notre métrique d'actionnabilité doit être considérée comme un outil qui peut aider à faire la lumière sur les modèles qui devraient procéder à une évaluation plus rigoureuse avant le calcul des avantages nets et le déploiement éventuel au chevet du patient.
Plus largement et plus important encore, notre objectif n'était pas de proposer la seule, parfaite ou meilleure façon de mesurer l'actionnabilité ni que les évaluations de l'actionnabilité devraient remplacer les mesures existantes, telles que le bénéfice net. Nous cherchons plutôt à favoriser les conversations nécessaires sur l'importance de l'actionnabilité du modèle. Nous espérions introduire des éléments importants de cette conversation en décrivant l'importance de l'incertitude dans la prise de décision médicale pour les problèmes cliniques et les environnements qui feront inévitablement l'objet d'une enquête continue dans la communauté ML. Nous proposons qu'il est important de mesurer la capacité d'un modèle à l'obtenir "correct" ou "incorrect" (c'est-à-dire les vrais positifs, les faux positifs, etc.) mais c'est aussi un moyen de comprendre les conséquences de cette capacité (c'est-à-dire le bénéfice net) et la distribution des résultats dans le ML multiclasse à travers le prisme de l'incertitude et de la prise de décision médicale. Notre approche, ou une approche similaire, pourrait susciter d'importantes pistes d'investigation pour le terrain. Par exemple, la quantification de la réduction de l'incertitude peut-elle augmenter les calculs des avantages nets dans le cas particulier des problèmes complexes multi-classes ? Les équipes ML pourraient-elles évaluer plus fréquemment les propositions de projet à travers le prisme de l'incertitude et allouer davantage de ressources aux problèmes qui induisent plus d'incertitude clinique par rapport à ceux qui induisent moins d'incertitude clinique ? Des recherches supplémentaires seront nécessaires et devraient être activement encouragées.
Un avenir caractérisé par une plus grande emphase sur l'actionnabilité du modèle n'est peut-être pas imminent, mais nous fournissons une suggestion pour progresser dans cette direction. Un arsenal d'outils plus large pour évaluer les impacts potentiels d'un modèle au chevet du patient sera nécessaire pour libérer la puissance du ML au profit des cliniciens et des patients.
De plus amples informations sur la conception de la recherche sont disponibles dans le résumé des rapports de recherche sur la nature lié à cet article.
Deo, RC Apprentissage automatique en médecine. Diffusion 132, 1920-1930 (2015).
Article Google Scholar
Emanuel, EJ & Wachter, RM L'intelligence artificielle dans les soins de santé : la valeur correspondra-t-elle au battage médiatique ? JAMA 321, 2281-2282 (2019).
Article Google Scholar
Kelly, CJ, Karthikesalingam, A., Suleyman, M., Corrado, G. et King, D. Principaux défis pour obtenir un impact clinique avec l'intelligence artificielle. BMC Med. 17, 195-195 (2019).
Article Google Scholar
Shah, NH, Milstein, A. & Bagley Ph, DS Rendre les modèles d'apprentissage automatique cliniquement utiles. JAMA 322, 1351–1352 (2019).
Vickers, AJ, Van Calster, B. & Steyerberg, EW Approches d'avantages nets pour l'évaluation des modèles de prédiction, des marqueurs moléculaires et des tests de diagnostic. BMJ 352, i6 (2016).
Article Google Scholar
Razavi, A., Newth, CJL, Khemani, RG, Beltramo, F. & Ross, PA Débit cardiaque et résistance vasculaire systémique : évaluation clinique comparée à une mesure objective non invasive chez les enfants en état de choc. J. Crit. Soins 39, 6–10 (2017).
Article Google Scholar
Walker, SB et al. Signes cliniques pour catégoriser le choc et cibler les médicaments vasoactifs en cas de choc septique pédiatrique chaud ou froid*. Pédiatre Crit. Soin Méd. 21, 1051 (2020).
Article Google Scholar
Balogh, EP, Miller, BT, Ball, JR Committee on Diagnostic Error, Board on Health Care Services, et al. Aperçu de l'erreur de diagnostic dans les soins de santé. (National Academy Press, États-Unis, 2015).
Podbregar, M. et al. Doit-on confirmer notre certitude diagnostique clinique par des autopsies ? Soins Intensifs Méd. 27, 1750–1755 (2001).
Article CAS Google Scholar
Vincent, J.-L. L'ère à venir de la médecine de précision pour les soins intensifs. Crit. Soins 21, 314 (2017).
Article Google Scholar
Kerlin, MP et al. Variation au niveau du médecin dans les résultats des patients ventilés mécaniquement. Ann. Suis. Thoracique. Soc. 15, 371–379 (2018).
Article Google Scholar
Farnan, JM, Johnson, JK, Meltzer, DO, Humphrey, HJ & Arora, VM Incertitude des résidents dans la prise de décision clinique et impact sur les soins aux patients : une étude qualitative. Qual. Saf. Soins de santé 17, 122–126 (2008).
Article CAS Google Scholar
Bhise, V. et al. Définir et mesurer l'incertitude diagnostique en médecine : une revue systématique. Stagiaire J. Gen. Méd. 33, 103-115 (2018).
Article Google Scholar
Bovier, PA & Perneger, TV Stress de l'incertitude de l'obtention du diplôme à la retraite - une étude basée sur la population des médecins suisses. Stagiaire J. Gen. Méd. 22, 632–638 (2007).
Article Google Scholar
Zwaan, L. & Singh, H. Les défis de la définition et de la mesure de l'erreur de diagnostic. Diagnostic 2, 97-103 (2015).
Article Google Scholar
Kassirer, JP Notre quête obstinée de certitude diagnostique. Une cause de tests excessifs. N. Engl. J. Med. 320, 1489-1491 (1989).
Article CAS Google Scholar
Zavala, AM, Day, GE, Plummer, D. & Bamford-Wade, A. Prise de décision sous pression : erreurs médicales dans des environnements incertains et dynamiques. Aust. Santé Rév. 42, 395–402 (2018).
Article Google Scholar
Green, SM et al. Incertitude clinique, précision du diagnostic et résultats chez les patients des services d'urgence présentant une dyspnée. Cambre. Interne. Méd. 168, 741-748 (2008).
Article Google Scholar
Peng, X. et al. Améliorer les stratégies de traitement du sepsis en combinant l'apprentissage par renforcement profond et basé sur le noyau. AMIA Annu. Symp. Proc. 2018, 887–896 (2018).
Google Scholar
Peine, A. et al. Développement et validation d'un algorithme d'apprentissage par renforcement pour optimiser dynamiquement la ventilation mécanique en soins intensifs. Chiffre NPJ. Méd. 4, 32 (2021).
Article Google Scholar
Nanayakkara, T., Clermont, G., Langmead, CJ et Swigon, D. Unification de la modélisation cardiovasculaire avec un apprentissage par renforcement profond pour un contrôle conscient de l'incertitude du traitement de la septicémie. Chiffre PLoS. Santé 1, e0000012 (2022).
Article Google Scholar
Komorowski, M., Celi, LA, Badawi, O., Gordon, AC et Faisal, AA Le clinicien en intelligence artificielle apprend des stratégies de traitement optimales pour la septicémie en soins intensifs. Nat. Méd. 24, 1716-1720 (2018).
Article CAS Google Scholar
Futoma, J., Masood, MA et Doshi-Velez, F. Identification de traitements distincts et efficaces pour l'hypotension aiguë avec SODA-RL : apprentissage par renforcement précis et diversifié optimisé en toute sécurité. AMIA Jt. Sommets Trad. Sci. Proc. 2020, 181-190 (2020).
Google Scholar
Krause, P. Théorie de l'information et prise de décision médicale. Étalon. Technol. Santé Informer. 263, 23–34 (2019).
Google Scholar
Télécharger les références
Ce travail est soutenu par la direction de William G. Williams à l'Hospital for Sick Children (Dr Mazwi) et par le Center for Research on Computation and Society (CRCS) de la Harvard John A. Paulson School of Engineering and Applied Sciences (Dr. Joshi).
Ces auteurs ont contribué à parts égales : Mjaye L. Mazwi, Danny Eytan.
Département de médecine de soins intensifs et Centre cardiaque de la famille Labatt, The Hospital for Sick Children, Toronto, ON, Canada
Daniel E. Ehrmann, Sebastian D. Goodfellow, Mjaye L. Mazwi et Danny Eytan
Centre de cardiologie congénitale du Mott Children's Hospital et de la faculté de médecine de l'Université du Michigan, Ann Arbor, MI, États-Unis
Daniel E. Ehrman
Center for Research on Computation on Society, Harvard University, Cambridge, MA, États-Unis
Shalmali Joshi
Faculté des sciences appliquées et de génie, Université de Toronto, Toronto, ON, Canada
Sébastien D. Goodfellow
Département de pédiatrie, Université de Toronto, Toronto, ON, Canada
Mjaye L. Mazwi
Département de médecine, Technion, Haïfa, Israël
Danny Eytan
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Tous les auteurs ont répondu aux critères suivants, avec des contributions supplémentaires décrites ci-dessous par individu : (1) contributions substantielles à la conception ou à la conception du travail ou à l'acquisition, l'analyse ou l'interprétation des données, (2) rédaction du travail ou révision critique pour le contenu intellectuel important, (3) l'approbation finale de la version achevée, (4) la responsabilité de tous les aspects du travail en s'assurant que les questions liées à l'exactitude ou à l'intégrité de toute partie du travail sont correctement étudiées et résolues. Ehrmann, Daniel : Recherche documentaire, contexte/rationnel, rédaction de tout ou partie du manuscrit, révision critique du manuscrit, édition du manuscrit. Joshi, Shalmali : rédaction de tout ou partie du manuscrit, révision critique du manuscrit, édition du manuscrit. Goodfellow, Sebastian : contexte/justification, révision critique du manuscrit, édition du manuscrit. Mazwi, Mjaye : Contexte/justification, révision critique du manuscrit, édition du manuscrit. Eytan, Danny : Contexte/justification, révision critique du manuscrit, édition du manuscrit.
Correspondance à Daniel E. Ehrmann.
Les auteurs ne déclarent aucun intérêt concurrent.
Note de l'éditeur Springer Nature reste neutre en ce qui concerne les revendications juridictionnelles dans les cartes publiées et les affiliations institutionnelles.
Libre accès Cet article est sous licence Creative Commons Attribution 4.0 International License, qui permet l'utilisation, le partage, l'adaptation, la distribution et la reproduction sur n'importe quel support ou format, tant que vous donnez le crédit approprié à l'auteur ou aux auteurs originaux et à la source, fournissez un lien vers la licence Creative Commons et indiquez si des modifications ont été apportées. Les images ou tout autre matériel tiers dans cet article sont inclus dans la licence Creative Commons de l'article, sauf indication contraire dans une ligne de crédit au matériel. Si le matériel n'est pas inclus dans la licence Creative Commons de l'article et que votre utilisation prévue n'est pas autorisée par la réglementation légale ou dépasse l'utilisation autorisée, vous devrez obtenir l'autorisation directement du détenteur des droits d'auteur. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by/4.0/.
Réimpressions et autorisations
Ehrmann, DE, Joshi, S., Goodfellow, SD et al. Rendre l'apprentissage automatique important pour les cliniciens : modèle d'actionnabilité dans la prise de décision médicale. npj Chiffre. Méd. 6, 7 (2023). https://doi.org/10.1038/s41746-023-00753-7
Télécharger la citation
Reçu : 01 avril 2022
Accepté : 13 janvier 2023
Publié: 24 janvier 2023
DOI : https://doi.org/10.1038/s41746-023-00753-7
Toute personne avec qui vous partagez le lien suivant pourra lire ce contenu :
Désolé, aucun lien partageable n'est actuellement disponible pour cet article.
Fourni par l'initiative de partage de contenu Springer Nature SharedIt