Una máquina central momentánea para la extracción de datos clínicos para informar la toma de decisiones médicas
Scientific Reports volumen 13, número de artículo: 10459 (2023) Citar este artículo
362 Accesos
4 altmétrico
Detalles de métricas
La toma de decisiones médicas asistida por aprendizaje automático presenta tres desafíos principales: lograr la parsimonia del modelo, garantizar predicciones creíbles y proporcionar recomendaciones en tiempo real con alta eficiencia computacional. En este artículo, formulamos la toma de decisiones médicas como un problema de clasificación y desarrollamos una máquina de núcleo de momento (MKM) para abordar estos desafíos. La idea principal de nuestro enfoque es tratar los datos clínicos de cada paciente como una distribución de probabilidad y aprovechar las representaciones de momento de estas distribuciones para construir el MKM, que transforma los datos clínicos de alta dimensión en representaciones de baja dimensión conservando al mismo tiempo la información esencial. Luego aplicamos esta máquina a varios conjuntos de datos clínicos prequirúrgicos para predecir los resultados quirúrgicos e informar la toma de decisiones médicas, lo que requiere significativamente menos potencia computacional y tiempo para la clasificación y, al mismo tiempo, produce un rendimiento favorable en comparación con los métodos existentes. Además, utilizamos conjuntos de datos sintéticos para demostrar que el marco desarrollado de minería de datos basado en momentos es robusto al ruido y a los datos faltantes, y logra la parsimonia del modelo, brindando una forma eficiente de generar predicciones satisfactorias para ayudar a la toma de decisiones médicas personalizadas.
La cirugía, como intervención médica importante, generalmente se considera cuando otros tratamientos dan resultados insatisfactorios. Predecir eventos adversos después de la cirugía basándose en los datos clínicos prequirúrgicos de los pacientes, como los datos de la historia clínica electrónica (EHR), es de crucial importancia para informar tanto a los médicos como a los pacientes para la toma de decisiones1,2. En los últimos años, la mayor disponibilidad de datos clínicos y potencia informática estimuló en gran medida el desarrollo de técnicas de aprendizaje automático (ML) para extraer información de datos clínicos. En particular, los algoritmos de aprendizaje automático han logrado avances significativos en los procedimientos médicos asistidos por IA para la predicción preoperatoria de resultados posquirúrgicos a través de HCE3,4. El problema general de ML se centra en encontrar una función apropiada f que mapee cada punto de datos de entrada \({\textbf{X}}\) a la salida deseada \({\textbf{y}}\), es decir,
Esta tarea es particularmente desafiante para conjuntos de datos que contienen registros clínicos de gran tamaño y tipos mixtos de datos, incluidos diagnósticos, tratamientos, signos vitales y valores de laboratorio5.
En la última década, se han propuesto numerosos métodos asistidos por ML para ayudar en la toma de decisiones médicas mediante la predicción de eventos posquirúrgicos. Por ejemplo, para la cirugía de pérdida de peso, las contribuciones notables incluyen la aplicación de la regresión logística (LR) y la regresión de Poisson (PR) para estimar la tasa de reingreso6, la utilización de redes neuronales (NN) y máquinas de aumento de gradiente (GBM) para predecir fuga gastrointestinal y tromboembolismo venoso7,8, y el desarrollo del algoritmo de súper aprendizaje para predecir el riesgo de reingreso a los 30 días después de la cirugía bariátrica9,10. Además de evaluar posibles eventos posquirúrgicos, los métodos de ML se han aplicado ampliamente para identificar anomalías en imágenes médicas como lesiones precancerosas o premalignas11,12,13,14. Los ejemplos principales van desde un enfoque de aprendizaje profundo para la predicción de la mortalidad en pacientes con enfermedad coronaria e insuficiencia cardíaca15 hasta métodos cuantitativos de extracción de características de imágenes para el pronóstico de la revascularización temprana en pacientes con sospecha de enfermedad de las arterias coronarias16. Algorítmicamente, las redes neuronales profundas han resultado atractivas para los investigadores y profesionales médicos debido a su capacidad para descubrir estructuras ocultas en grandes conjuntos de datos, lo que lleva a una alta probabilidad de lograr resultados satisfactorios en condiciones adecuadas17. Entre estos trabajos, la integración de técnicas de aprendizaje automático en la investigación médica, aunque exitosa en muchos sentidos, generalmente adolece de una baja eficiencia computacional debido a la estructura heterogénea, por ejemplo, debido a la escasez e irregularidad, y al gran tamaño de los datos clínicos18. En general, la complejidad de los algoritmos de ML crece exponencialmente en tiempo y uso de memoria en función del tamaño de los datos. Además, para producir un mejor rendimiento, las redes neuronales profundas sacrifican aún más la robustez al ruido y la parsimonia del modelo, además de la eficiencia computacional19.
Con el objetivo de construir un modelo parsimonioso y computacionalmente eficiente para ayudar a la toma de decisiones médicas, particularmente para tratamientos quirúrgicos, desarrollamos una máquina de núcleo de momento para la extracción de datos clínicos. La idea principal es introducir la noción de momentos en que los datos clínicos caracterizan eficientemente el estado de salud general de los pacientes. Integramos aún más el método Lasso del Criterio de Independencia de Hilbert Schmidt (HSIC) en el procedimiento de preprocesamiento de datos. Esto conduce a dos ventajas principales: (1) la representación del momento puede identificar cuantitativamente los predictores cruciales que afectan los resultados de la cirugía; y (2) la dimensión de los datos de la HCE se reduce significativamente, lo que facilita su alta eficiencia computacional en tareas de análisis de datos. Luego formulamos problemas de toma de decisiones médicas como problemas de clasificación de ML, en los que las representaciones de momento extraídas de los datos de EHR se utilizan como características para los clasificadores de ML. Para demostrarlo, elegimos tres clasificadores de ML, LR, NN y GBM, y utilizamos tres conjuntos de datos clínicos para ilustrar la generalización de la máquina de núcleo de momento desarrollada, es decir, tomar decisiones médicas basadas en momentos es válido para diferentes datos clínicos independientemente del elecciones de los clasificadores ML. Comparamos el rendimiento de clasificación resultante de nuestro método con el de los métodos de extracción de características existentes, destacando la parsimonia del modelo y la alta eficiencia computacional de la máquina de núcleo de momento desarrollada. Además, demostramos la robustez de la máquina de kernel de momento frente al ruido y la pérdida de datos utilizando datos sintéticos.
En esta sección, primero ilustramos cómo se puede ayudar a la toma de decisiones clínicas a través de algoritmos de aprendizaje automático para brindar predicciones informadas basadas en los datos clínicos del paciente. En particular, formulamos esta tarea como un problema de clasificación. A continuación, como núcleo de esta sección, desarrollamos un núcleo de momento novedoso para extraer características de los datos clínicos para el problema de clasificación. Nuestro método integra de forma única el algoritmo HSIC Lasso para seleccionar características informativas, mejorando así la eficiencia computacional sin sacrificar el rendimiento de la clasificación. Para demostrar la aplicabilidad de la máquina de toma de decisiones médicas desarrollada, también presentamos estudios de casos que utilizan datos sintéticos y datos clínicos reales.
Tomar decisiones con respecto a una intervención médica importante para un paciente, por ejemplo, decidir si el paciente debe someterse a una cirugía, generalmente requiere (1) recopilar datos suficientes sobre los posibles resultados posteriores a la intervención; (2) monitorear el estado de salud actual y revisar el historial médico del paciente; y (3) evaluar los factores importantes que influyen en los posibles resultados según el estado de salud actual y el historial médico del paciente. Este proceso sigue de cerca la formulación de una tarea de clasificación en aprendizaje automático, donde cada clase representa un posible resultado posterior a la intervención. Luego, el resultado de la clasificación obtenido mediante el procedimiento de ML utilizando los datos clínicos del paciente puede informar la decisión médica.
En ML, las características juegan un papel fundamental en su desempeño. Para ayudar hábilmente con el proceso de toma de decisiones médicas, es crucial extraer características de los datos clínicos que reflejen las condiciones médicas de los pacientes, así como aquellas que afectan los resultados posteriores a la intervención, que es el enfoque principal de las siguientes secciones.
Cuando trabajamos con conjuntos de datos que comprenden valores numéricos y categóricos, aplicamos codificación one-hot20, una técnica que convierte predictores categóricos en valores binarios no negativos. Cada categoría recibe una representación numérica única como un vector de características que consta de entradas de 0 y 1. Luego, prenormalizamos cada característica (predictor) dentro de los conjuntos de datos de entrenamiento y prueba para garantizar que todas estén en el intervalo [0, 1 ] antes de normalizar aún más el vector predictor de cada paciente a una distribución de probabilidad. Sea \({\textbf{x}}_i=(x_{i1},\dots ,x_{iM})\) el vector predictor del paciente \(i^{\textrm{th}}\) para \ (i=1,\dots ,N\), donde N es el número total de pacientes y M es el número de predictores para cada paciente, luego normalizamos cada \({\textbf{x}}_j\) como
lo que produce un vector \({\textbf{p}}_i=(p_{i1},\dots ,p_{iM})\) que satisface \(\sum _{j=1}^Mp_{ij}=1\ ). Además, cada componente \(p_{ij}\) de \({\textbf{p}}_i\) toma valores en el mismo intervalo [0, 1], y esto resuelve cualquier heterogeneidad en los datos, es decir, diferentes componentes del vector predictor \({\textbf{x}}_i\) se extraen de diferentes rangos. La propiedad \(\sum _{j=1}^Mp_{ij}=1\) revela que \({\textbf{p}}_i\) es un vector de probabilidad y, por tanto, cada \({\textbf{ p}}_i\) representa la distribución de probabilidad de alguna variable aleatoria \({\textbf{A}}\). En particular, si \({\textbf{A}}\) toma valores en el conjunto \(\Omega =\{\alpha _1,\dots ,\alpha _M\}\) que contiene M elementos distintos, entonces la probabilidad de el evento \(\{{\textbf{A}}=\alpha _j\}\) está dado por \({\mathbb {P}}({\textbf{A}}=\alpha _j)=p_{ij }\) para cada \(j=1,\dots ,M\).
Mediante el problema del momento de Hausdorff21, la distribución de probabilidad \({\textbf{p}}_i\) de \({\textbf{A}}\) está determinada únicamente por el vector de momento \({\textbf{m}}_i =(m_{i0},\dots ,m_{i,M-1})\in {\mathbb {R}}^M\), cuyo componente \(k^{\textrm{th}}\) es dada por
y denominado \(k^{\textrm{th}}\)-momento de la variable aleatoria \({\textbf{A}}\) con respecto a la distribución de probabilidad \({\textbf{p}} _i\). Computacionalmente, el vector de momento \({\textbf{m}}_i\) se puede obtener fácilmente mediante \({\textbf{m}}_i={\textbf{p}}_i{\mathbb {M}}\) , dónde
es la matriz \(M\times M\) de Vandermonde generada por el vector \(\alpha =(\alpha _1,\dots ,\alpha _M)\) que consta de los posibles valores de la variable aleatoria \({\textbf{ A}}\). La suposición de que \(\alpha _i\) son garantías distintas \(\det ({\mathbb {M}})=\prod _{1\le k< l\le M}(\alpha _l-\alpha _k) \ne 0\), equivalentemente, la invertibilidad de \({\mathbb {M}}\). Por lo tanto, como mapa de \({\mathbb {R}}^M\) a \({\mathbb {R}}^M\) asignando una distribución de probabilidad a un vector de momento, \({\mathbb {M} }\) es biyectivo, es decir, diferentes distribuciones de probabilidad deben asociarse con diferentes vectores de momento, lo que también verifica el problema de momentos de Hausdorff antes mencionado de que \({\textbf{p}}_i\) está determinado únicamente por \({\textbf{m }}_i\) y viceversa desde la perspectiva del álgebra lineal. Junto con el hecho de que \({\textbf{p}}_i\) es la normalización del vector predictor \({\textbf{x}}_i\) que contiene los registros médicos del \(i^{\textrm{ th}}\) paciente, esta observación declara firmemente la candidatura del vector de momento \({\textbf{m}}_i\) como característica para las tareas de toma de decisiones médicas.
Además, debido a que el procedimiento de normalización ilustrado en (2) dota a cada \({\textbf{p}}_i\) de la propiedad \(\sum _{j=1}^Mp_{ij}=1\), si \ Conocemos los componentes (M-1\) de \({\textbf{p}}_i\), digamos los primeros componentes \(M-1\) \(p_{i1}\), \(\dots\ ), \(p_{i,M-1}\), entonces el componente restante se puede calcular explícitamente como \(p_{iM}=1-\sum _{j=1}^{M-1}p_{ij }\), es decir, la libertad para determinar un vector de probabilidad M-dimensional es de grado \(M-1\). En consecuencia, el conjunto de datos clínicos normalizado \(\{{\textbf{p}}_1,\dots ,{\textbf{p}}_N\}\) se encuentra en un subespacio propio de \({\mathbb {R}}^ M\) de dimensión como máximo \(M-1\). Entonces, en la práctica, el uso de momentos hasta algún orden \(M' Además, el núcleo de momento en (4) es independiente de los datos y, por lo tanto, \({\textbf{A}}\) es una variable aleatoria ficticia, de modo que el espacio muestral \(\Omega\), que contiene los M resultados de \({\textbf{A}}\), es completamente libre de elegir. Para informar las decisiones médicas estratégicas, buscamos una construcción de \(\Omega\) adecuada para clasificar la contribución relativa de los vectores de características, que analizamos en la siguiente sección. Debido a que cada momento \(m_{ik}\) en (3) es una suma ponderada de los predictores normalizados \(p_{ij}\) con los pesos \(\alpha _j^k\), la elección del espacio muestral \(\Omega =\{\alpha _1,\dots ,\alpha _M\}\) se reduce a la determinación de los pesos. Naturalmente, los predictores con pesos mayores reconocen una mayor importancia para el proceso de toma de decisiones. Con este fin, formulamos la tarea de buscar \(\Omega\) como un problema de clasificación de importancia de características (FIR)22, para asignar pesos mayores a predictores más informativos. En particular, aplicaremos el algoritmo Lasso del Criterio de Independencia de Hilbert Schmidt (HSIC) formulado como23 donde \(\Vert \cdot \Vert _{\text {Frob}}\) es la norma de matrices de Frobenius, es decir, \(\Vert {\textbf{A}}\Vert _{\text {Frob}}= \sqrt{\sum _{i=1}^m\sum _{j=1}^nA_{ij}^2}\) para cualquier \({\textbf{A}}\in {\mathbb {R} }^{m\times n}\) con la entrada (i, j) \(A_{ij}\), y \(\Vert \alpha \Vert _1=\sum _{i=1}^M| \alpha _i|\) es la norma \(\ell ^1\) del vector \(\alpha =(\alpha _1,\dots ,\alpha _M)\), y \(\lambda >0\) es una constante que controla la escasez de la solución. Además, \(\bar{{\textbf{K}}}^{(j)} = \Gamma {\textbf{K}}^{(j)} \Gamma\) y \(\bar{{\textbf {L}}} = \Gamma {\textbf{L}} \Gamma\) son matrices de Gram centradas con las entradas \({\textbf{K}}_{m,n}^{(j)} = k( p_{j,m},p_{j,n})\) y \({\textbf{L}}_{m,n} = l(y_m,y_n)\) definidos mediante el uso de algunas funciones del núcleo k y l , donde \(y_i\) denota la etiqueta de clase del paciente \(i^{\textrm{th}}\) y \(\Gamma = {\textbf{I}}_N - \frac{1}{N} {\textbf{1}}_N {\textbf{1}}^{\top }_N\) es la matriz de centrado. Además, para la memoria y la eficiencia computacional, utilizamos Block HSIC Lasso24 en nuestros experimentos. El proceso de nuestro marco de extracción de características a través de momentos se resume en la Fig. 1. Los siguientes estudios de caso muestran además que el rendimiento de la clasificación utilizando los vectores de momento \({\textbf{m}}_i\), generados a partir del núcleo de momento en (4), ya que las características son comparables a aquellas que usan otras características con un tiempo de cálculo reducido y una mayor robustez. El proceso de nuestro método de extracción de características a través de momentos. HSIC Lasso se aplica a los datos clínicos para obtener la puntuación de importancia (pesos) de cada característica. Luego, los pesos se utilizan para formar el núcleo de momento definido en (4). La representación eficiente \({\textbf{M}}\) de los datos clínicos originales se genera mediante la operación del kernel de momento. \({\textbf{M}}\) se utilizará luego en tres algoritmos de aprendizaje automático: regresión logística (LR), redes neuronales (NN) y máquinas de aumento de gradiente (GBM). La predicción de los algoritmos de aprendizaje automático informa aún más la toma de decisiones médicas. Presentamos tres conjuntos de datos del mundo real, incluida la toma de decisiones informadas sobre la cirugía de cáncer de mama, la cirugía de pérdida de peso y la cirugía de trasplante de hígado mediante el uso de datos clínicos de pacientes previos a la cirugía. Específicamente, utilizamos el conjunto de datos sobre cáncer de mama del UCI Machine Learning Repository25, que es una base de datos disponible públicamente y con acceso abierto, para clasificar los eventos de recurrencia del cáncer de mama. El conjunto de datos del Programa de Acreditación y Mejora de la Calidad de Cirugía Bariátrica Metabólica (MBSAQIP)26 se utiliza para clasificar la incidencia de eventos catastróficos, incluida la muerte, el ingreso no planificado a la UCI y al menos una reoperación dentro de los 30 días posteriores a la cirugía de pérdida de peso, y el órgano El conjunto de datos de la Red de Adquisiciones y Trasplantes (OPTN)27 se utiliza para clasificar el fracaso del injerto después de una cirugía de trasplante de hígado. Tanto los conjuntos de datos MBSAQIP como OPTN están disponibles públicamente y se puede acceder a ellos previa solicitud. Los tres conjuntos de datos se resumen brevemente en la Fig. 2, y en el Material complementario se incluye un resumen más detallado de cada conjunto de datos. Todos los procedimientos incluidos en este trabajo se realizaron de acuerdo con las normas y directrices pertinentes, y todos los consentimientos informados se obtuvieron antes de que se produjera el ingreso al instituto médico respectivo. El conjunto de datos sobre cáncer de mama se recopiló del Centro Médico Universitario, Instituto de Oncología, Ljubljana, Yugoslavia. El conjunto de datos MBSAQIP es un archivo de datos que cumple con la Ley de Responsabilidad y Portabilidad de Seguros Médicos (HIPAA) que contiene casos enviados al Registro de Datos MBSAQIP, que contiene datos agregados a nivel de paciente y no identifica hospitales, proveedores de atención médica ni pacientes. El conjunto de datos de OPTN se recopila a través de una aplicación web en línea. Los profesionales de trasplantes de hospitales, laboratorios de histocompatibilidad (tipificación de tejidos) y organizaciones de obtención de órganos ubicados en todo Estados Unidos utilizan la aplicación para administrar su lista de candidatos a trasplante en espera, acceder y completar formularios electrónicos de recopilación de datos, agregar información del donante y realizar coincidencias entre donante y receptor. listas, acceda a varios informes y políticas de datos de trasplantes. No se obtuvieron órganos ni tejidos de los prisioneros. Para cada conjunto de datos, utilizamos una división de 80 % de entrenamiento y 20 % de prueba, y exploramos tres tipos de esquemas de ingeniería de características \({\textbf{M}}\), \({\textbf{X}}\) y \( {\textbf{X}}(\alpha )\) para clasificación, donde \({\textbf{M}}\) contiene las características generadas por el núcleo de momento en (4), \({\textbf{X}} \) presenta los datos preprocesados (obtenidos mediante normalización y codificación one-hot), y \({\textbf{X}}(\alpha )\) consta de las características en \({\textbf{X}}\) después selección de características. Cada conjunto de características se utiliza para entrenar tres clasificadores, incluida la regresión logística (LR), las redes neuronales artificiales (NN) y las máquinas de aumento de gradiente (GBM), y examinamos el tiempo de cálculo y el área bajo la característica del operador receptor (AUC). ) curva para los datos de prueba. Como se muestra en la Fig. 2, los tres conjuntos de datos están desequilibrados. Los conjuntos de datos desequilibrados contienen etiquetas de clases significativamente desiguales. Para abordar el problema del desequilibrio de datos, adoptamos las siguientes adaptaciones en la fase de capacitación. Para LR, las ponderaciones de observación se agregan según la proporción del desequilibrio de clases; para los NN, se agrega una ponderación de error basada en la distribución de clases para castigar la clasificación errónea de la etiqueta de minoría; para los GBM, utilizamos RUSBoost28, un método de impulso conocido por su solidez ante el desequilibrio de clases, para aprender de los datos de entrenamiento sesgados. En la fase de prueba, las AUC son naturalmente inmunes al desequilibrio de clases, de modo que el desempeño de la clasificación refleja con precisión el desempeño de los clasificadores. Finalmente, también probamos la robustez del número de muestras, características, ruido y valores faltantes para cada esquema de preprocesamiento utilizando cinco experimentos: (a) datos sin ruido, (b) datos con relación señal-ruido \(SNR = 20\). ), (c)-(e) datos faltantes en características significativas, en las que los datos experimentales se generan sintéticamente. En cada uno de estos experimentos, tenemos 10.000 muestras (\(N=10.000\)) y 2.000 predictores (\(M=2.000\)), y entre los 2.000 predictores sólo 5 de ellos son causales; es decir, sólo cinco de ellas contribuyen realmente a las etiquetas de salida, y las otras 1995 características se generan aleatoriamente, que son independientes de las etiquetas de salida. Las características causales se generan mediante dos distribuciones gaussianas con media \((\mu _{i1},\mu _{i2}) = (0.3i, 0.7i), i = 1, \ldots , 5\) y la misma varianza. \(\sigma ^2 = 1\), que representa datos de dos clases diferentes. El orden de los momentos se establece como un hiperparámetro ajustable que, en este trabajo, se elige para optimizar el AUC mediante validación cruzada para cada uno de los algoritmos de ML. Tenga en cuenta que aumentar el número de momentos no necesariamente mejora el rendimiento de la clasificación, ya que más momentos (características) utilizados pueden generar una mayor probabilidad de sobreajuste. Para ilustrar esta idea, en la Fig. 5, utilizamos otro conjunto de datos sintéticos con 100 observaciones y 100 predictores. Los resultados de AUC se dan usando \({\textbf{M}}\) con el orden del momento M llevado hasta 20. Todos los casos de estudio se ejecutaron utilizando MATLAB en un sistema operativo Windows 10 con CPU i5-7600K de 3,80 GHz y memoria RAM de 16 GBM. Descripción resumida de los conjuntos de datos. Los resultados de AUC para tres datos del mundo real se muestran en la Fig. 3, junto con un resumen de los resultados y una comparación con otros trabajos publicados en la Tabla 1. Determinamos la cantidad de características requeridas para \({\textbf{M}}\ ) optimizando el AUC mediante validación cruzada. Para el conjunto de datos de cáncer de mama, el porcentaje de tiempo de entrenamiento ahorrado usando \({\textbf{M}}\) en comparación con \({\textbf{X}}\) es el más alto para LR (64%), seguido de NN (51%) y GBM (19%). Nuestro esquema de preprocesamiento \({\textbf{M}}\) también es más eficiente que \(\mathbf {X(\alpha )}\). Observamos que en los 3 algoritmos, \({\textbf{M}}\) generó puntuaciones AUC de 0,75, 0,65 y 0,70, para los modelos LR, NN y GBM que fueron tan altos o superiores que el siguiente mejor rendimiento. método \({\textbf{X}}(\alpha )\). El uso de \({\textbf{M}}\) también requería solo 5 funciones, en comparación con 38 y 25 para \({\textbf{X}}\) y \({\textbf{X}}(\alpha )\ ). En comparación con un trabajo publicado29 que ofrece una precisión máxima del 72,7 % utilizando los árboles de decisión C4.5, que se basan en la ganancia de información de las características sin procesar para dividir los árboles de decisión, nuestro método ofrece una precisión mejorada del 75 %. Para el conjunto de datos MBSAQIP, el tiempo necesario para entrenar usando \({\textbf{M}}\) es sustancialmente menor que \({\textbf{X}}\) y \({\textbf{X}}(\ alfa )\). El porcentaje de tiempo ahorrado para \({\textbf{M}}\) en comparación con \({\textbf{X}}\) es 99 % para LR, 91 % para NN y 31,4 % para GBM. También observamos un rendimiento de prueba AUC comparable usando \({\textbf{M}}\). Usando LR como modelo ML, el AUC cuando se usa \({\textbf{M}}\) es el segundo más alto, en comparación con 0,75 cuando se usa \({\textbf{X}}(\alpha )\). Para NN y GBM, el AUC cuando se usa \({\textbf{M}}\) es ligeramente menor en comparación con \({\textbf{X}}(\alpha )\) (0,63 y 0,70 en comparación con 0,68 y 0,75) , pero la precisión de las pruebas es casi la misma (75% y 74% en comparación con 82% y 84%). También observamos que los datos preprocesados \({\textbf{M}}\) solo usaron 30 características, en comparación con 163 y 131 para \({\textbf{X}}\) y \({\textbf{X}} (\alfa )\). En el trabajo anterior30, los autores integraron múltiples modelos de aprendizaje automático para la tarea de clasificación. En esencia, el conjunto de modelos es también un algoritmo basado en árboles de decisión, donde las características mejoradas resultantes de estos algoritmos de aprendizaje automático se combinan en un conjunto. Por último, para el conjunto de datos de trasplante de hígado, el porcentaje de tiempo ahorrado usando \({\textbf{M}}\) es mayor para LR (98%), seguido de NN (59%) y luego GBM (17%). En los tres algoritmos de ML, observamos AUC similares para cada esquema de preprocesamiento, donde \({\textbf{M}}\) genera puntuaciones de AUC de 0,63, 0,59 y 0,63 para LR, NN y GBM, en comparación con las AUC más altas. encontrado con otros esquemas de preprocesamiento de 0,66, 0,60 y 0,65 para los mismos modelos. De manera similar a los otros conjuntos de datos, usar \({\textbf{M}}\) como esquema de preprocesamiento requirió solo 20 características en comparación con 99 y 91 características para \({\textbf{X}}\) y \({\textbf {X}}(\alfa )\). En un trabajo publicado31 que utiliza una red neuronal profunda sobre datos prequirúrgicos, los autores incluyeron 202 características, incluso después de la selección de características. Para comparar aún más el rendimiento de clasificación del marco MKM propuesto con otros métodos de selección de características, en la Tabla 2, demostramos los resultados del rendimiento AUC obtenidos al aplicar varios métodos de selección de características ampliamente utilizados, incluida la prueba de Chi-Cuadrado32, la redundancia mínima y la relevancia máxima ( MRMR)33, análisis de componentes de vecindario (NCA)34, selección de características basada en correlación (CFS) y BorutaShap35. En la tabla, M características con las ponderaciones de mayor importancia se retienen para construir \({\textbf{X}}(\alpha )\) usando diferentes métodos de selección de características. Observamos que \({\textbf{M}}\) sigue siendo competitivo entre todos los demás métodos de selección de características en términos tanto de rendimiento de clasificación como de parsimonia del modelo. Además de \({\textbf{X}}(\alpha )\), también comparamos los resultados de clasificación obtenidos utilizando \({\textbf{M}}\) generados por los métodos de selección de características antes mencionados. De manera similar, mantenemos 5, 20 y 30 momentos para los conjuntos de datos de cáncer de mama, trasplante de hígado y MBSAQIP, respectivamente, y realizamos una validación cruzada 10 veces mayor para las pruebas. Los resultados se muestran en la Fig. 1 del Material complementario, del cual observamos que en la mayoría de los casos, diferentes métodos de selección de características para generar \({\textbf{M}}\) dan como resultado rendimientos similares, y el HSIC propuesto tiene una ligera ventaja sobre los otros métodos de selección de funciones. Esto ilustra la solidez del marco de extracción de características a través de la noción de momentos. El \({\textbf{M}}\) extraído sigue siendo competitivo tanto en la parsimonia del modelo como en el rendimiento de la clasificación, independientemente de los métodos de selección de características utilizados. Curva ROC para la tarea de clasificación usando (1) \({\textbf{X}}\): el conjunto de datos original, (2) \({\textbf{M}}\): el conjunto de datos reducido, y (3) \ ({\textbf{X}}(\alpha )\): el conjunto de datos que contiene solo características identificadas por HSIC Lasso. El método propuesto es capaz de seleccionar características no redundantes que compensen la influencia del ruido. En todos los análisis que utilizan el conjunto de datos sintéticos, elegimos HSIC Lasso como nuestro método de selección de características para investigar la eficiencia computacional del marco MKM por su solidez en el rendimiento en diferentes conjuntos de datos del mundo real. Como se resume en la Tabla 3, para nuestro conjunto de datos sintéticos con \(N=10{,}000\) observaciones y \(M=2,000\) predictores, en todos los escenarios estudiados, usando \({\textbf{M}} \) superó consistentemente a \({\textbf{X}}\) y \({\textbf{X}}(\alpha )\) tanto en la puntuación AUC como en el tiempo requerido para el entrenamiento. Los intervalos de confianza también son más ajustados para los casos \({\textbf{M}}\). El rendimiento en tiempo de ejecución del conjunto de datos sintéticos se resume en la Fig. 4. El panel (a) de la Figura 4 muestra el uso de memoria (en MB) para cada esquema de preprocesamiento. En general, el uso de \({\textbf{M}}\) funciona tan bien o mejor que \({\textbf{X}}\) y \({\textbf{X}}(\alpha )\) para ambos tiempos de ejecución. y uso de memoria. Además, como se muestra en la Fig. 4b, con el número de muestras aumentando de 100 a 10 000, el uso de \({\textbf{M}}\) no solo garantiza el tiempo de ejecución más corto sino que también casi evita que el tiempo de ejecución aumente. La situación sigue siendo la misma para el caso de aumentar el número de características como se ilustra en la Fig. 4c. El efecto del orden de los momentos en el rendimiento de la clasificación se resume en la Fig. 5. Observamos que los momentos hasta el orden 5 generan el mejor rendimiento de clasificación, mientras que agregar órdenes superiores a 5 proporciona rendimientos subóptimos. En este ejemplo, los órdenes superiores son redundantes para aproximar la distribución original de los conjuntos de datos y dan como resultado un sobreajuste. (a) Recursos computacionales requeridos por \({\textbf{X}}\), \({\textbf{X}}(\alpha )\) y \({\textbf{M}}\) para 10 bootstraps. (Izquierda) Tiempo transcurrido durante el proceso de entrenamiento y prueba. (Derecha) Memoria utilizada en un escenario de un solo núcleo. (b) Tiempo de ejecución versus el número de muestras usando \({\textbf{X}}\), \({\textbf{X}}(\alpha )\) y \({\textbf{M}}\). La puntuación AUC media se calcula promediando todos los casos de arranque. La figura ampliada muestra solo el caso \({\textbf{M}}\) y \({\textbf{X}}(\alpha )\), desde donde todavía podemos observar ese tiempo de ejecución de \({\ textbf{M}}\) no aumenta con el tamaño de la muestra. (c) Tiempo de ejecución frente al número de funciones que utilizan \({\textbf{X}}\), \({\textbf{X}}(\alpha )\) y \({\textbf{M}}\). La puntuación AUC media se calcula promediando todos los casos de arranque. La figura ampliada muestra \({\textbf{M}}\) y \({\textbf{X}}(\alpha )\). Ambos son inmunes al aumento de funciones, pero claramente \({\textbf{M}}\) tiene una ventaja sobre \({\textbf{X}}(\alpha )\) en tiempo de ejecución. Número de términos de momento frente al rendimiento del AUC con un intervalo de confianza del 95 % para el conjunto de datos sintéticos. En particular, los momentos de 5 órdenes dan el rendimiento AUC óptimo de 0,9997, y aumentar el orden de los momentos compromete el rendimiento AUC debido al sobreajuste. Presentamos un marco de extracción de características que utiliza la noción de momentos para construir una representación de baja dimensión del conjunto de datos original de alta dimensión. La fortaleza de este marco radica en su eficiencia de tiempo y memoria en comparación con el método tradicional HSIC Lasso que se usa ampliamente para la selección de características de grandes conjuntos de datos. A través de la representación de un núcleo de momento, en el que se combinan la ponderación cero de las características sin importancia y la ampliación de las útiles en una operación simple, mejoramos la resistencia de los algoritmos de ML al ruido y a los datos faltantes, los cuales son problemas comunes encontrados. cuando abordamos conjuntos de datos del mundo real. El tiempo de entrenamiento para un modelo de ML se puede reducir hasta en un 99 %, según el modelo utilizado, sin que el rendimiento del modelo se vea comprometido. Es común tratar cada predictor médico como una variable aleatoria para aprovechar sus propiedades estadísticas, por ejemplo, la distribución de probabilidad, analizada en el espacio muestral de la población objetivo, por ejemplo, pacientes diagnosticados con algunas enfermedades específicas, para ayudar en la toma de decisiones médicas36. ,37. En nuestro marco, los roles de los pacientes y los predictores se invierten: formulamos a cada paciente como una distribución de probabilidad sobre el espacio muestral que consta de los predictores médicos. Como resultado, el análisis se centra en el paciente y, lo que es más importante, nuestro marco da lugar a un flujo de trabajo de toma de decisiones médicas personalizado y centrado en el paciente. Los factores decisivos que afectan las decisiones médicas en nuestro modelo son los vectores de momento generados por el núcleo de momento en (4). Como se define en (3), los vectores de momento se obtienen tomando expectativas, es decir, promedios, con respecto a las distribuciones de probabilidad que representan los registros médicos de los pacientes. Esto indica que las decisiones tomadas por nuestra máquina se basan en las condiciones de salud de los pacientes mediante una evaluación integral de todos los predictores médicos. Además, la integración de FIR en el procedimiento de extracción de características (cálculo del vector de momento) aumenta aún más la influencia de un pequeño número de predictores cruciales en la toma de decisiones médicas. Desde la perspectiva de la teoría de ML, esto es eficaz para evitar el sobreajuste, de modo que se espera que nuestros algoritmos sean más generalizables, lo que explicamos con más detalle en la siguiente sección. Nuestros resultados demuestran que el uso del kernel de momento requiere significativamente menos funciones para lograr un rendimiento comparable o mejor que otros métodos de extracción de funciones. Esto demuestra acertadamente la efectividad de los momentos para representar las estructuras de los conjuntos de datos originales, cuya razón principal es la naturaleza promedio de los momentos. Recuerde la definición en (3), cada momento es una suma ponderada de los predictores normalizados de un paciente y, por lo tanto, depende de todos los datos recopilados para el paciente, lo que indica su capacidad para reflejar la estructura general de los datos. Por otro lado, como lo valida el problema del momento de Hausdorff mencionado en la sección Métodos21, la recopilación de todos los momentos también puede caracterizar los datos de manera integral, no solo de manera promediada. Como resultado, un pequeño número de momentos que documentan suficiente información para la tarea de clasificación ya es suficiente. Además, la utilización de HSIC Lasso genera aún más un vector disperso \(\alpha\), que reduce con éxito la dimensión del núcleo de momento. Estas características hacen que el marco de aprendizaje basado en kernel actualmente desarrollado sea un modelo parsimonioso con gran eficiencia computacional y generalización, como se analiza a continuación. En todos los estudios de caso, el rendimiento de las clasificaciones que utilizan características de momento es comparable o supera el rendimiento de las clasificaciones que utilizan otras características, independientemente de las elecciones de los clasificadores. En parte, la solidez de nuestro método en diferentes conjuntos de datos es la manifestación de su generalización en la terminología de ML. En particular, las NN profundas son conocidas por su extraordinario poder para derivar conclusiones de conjuntos de datos complejos incluso sin ninguna selección de características, es decir, el esquema de preprocesamiento \({\textbf{X}}\) en nuestra notación. Sin embargo, para los tres conjuntos de datos, el LR básico con \({\textbf{M}}\) puede superar a NN. Junto con la solidez de los diferentes algoritmos de clasificación, el método de momento desarrollado tiene el potencial de servir como un flujo de trabajo universal para la toma de decisiones médicas asistido por ML. Otra ventaja importante de nuestro método es la robustez al ruido y la pérdida de datos. Como se ilustra en la Tabla 3, con el grado de pérdida de datos aumentando y el efecto del ruido entrante, aunque el rendimiento disminuye, el uso de \({\textbf{M}}\) produce consistentemente los mejores resultados en comparación con \({\textbf {X}}\) y \({\textbf{X}}(\alpha )\). Esto también se debe a la operación de promediado en el cálculo de momentos, que suaviza los datos y, por tanto, es capaz de neutralizar el efecto del ruido y compensar los valores faltantes. Sin lugar a dudas, la ventaja más significativa de utilizar características de momento es la alta eficiencia computacional. Esto también se debe principalmente a la parsimonia del modelo basado en momentos. En la mayoría de los casos de los estudios de caso, al utilizar momentos como características, el tiempo de entrenamiento del modelo se reduce drásticamente; por ejemplo, para los conjuntos de datos MBSAQIP y de trasplante de hígado, el tiempo para entrenar LR se reduce en un 99% y 98%, respectivamente. Por otro lado, para los datos sintéticos, además de tener un tiempo de ejecución más corto comparable con \({\textbf{X}}(\alpha )\), \({\textbf{M}}\) también logra el menor consumo de memoria. Además, también observamos que las tasas de aumento en el tiempo de ejecución de \({\textbf{M}}\), así como de \({\textbf{X}}(\alpha )\), son notablemente pequeñas con el El número de muestras y características aumenta y \({\textbf{M}}\) sigue siendo el modelo con el tiempo de ejecución más corto. En particular, para \({\textbf{M}}\) con respecto al número de funciones dependientes, el aumento del tiempo de ejecución es casi 0 incluso si el número de funciones casuales ha aumentado en un factor de 100. En resumen, usar Las funciones de momento para tareas de aprendizaje no sufrirán una carga computacional, lo que afirma además la idoneidad de \({\textbf{M}}\) para abordar conjuntos de datos médicos complejos a gran escala. Tenga en cuenta que debido a que cada momento es una combinación lineal de los pesos \(\alpha _i\) generados por el algoritmo de clasificación de importancia HSIC Lasso, es posible que la importancia de los predictores para las decisiones médicas no sea directamente reconocible a partir de los momentos, lo que constituye una posible Limitación del momento propuesto por la máquina del núcleo. Desarrollamos una máquina de kernel de momento para extraer características para predecir resultados quirúrgicos utilizando datos clínicos existentes para informar la toma de decisiones. El núcleo se construye a través de la noción de momentos, que es capaz de transformar datos clínicos complicados en representaciones compactas y significativas, al tiempo que retiene información crucial para la toma de decisiones médicas. En particular, la máquina desarrollada no sólo proporciona predicciones informativas para la toma de decisiones médicas, sino que también es preferible a los métodos existentes en términos de eficiencia computacional, parsimonia del modelo y robustez al ruido. Finalmente, esta máquina central de momento tiene el potencial de personalizarse en función de los requisitos específicos de pacientes y médicos, lo que supone un avance significativo en los métodos de toma de decisiones asistidos por ML en medicina. O'Donnell, FT Evaluación preoperatoria del paciente quirúrgico (2016). King, MS Evaluación preoperatoria (2000). Xue, B. y col. Uso del aprendizaje automático para desarrollar y evaluar modelos utilizando datos preoperatorios e intraoperatorios para identificar riesgos de complicaciones posoperatorias. Red JAMA. Abierto 4, e212240–e212240. https://doi.org/10.1001/jamanetworkopen.2021.2240 (2021). Artículo PubMed PubMed Central Google Scholar Chiew, CJ, Liu, N., Wong, TH, Sim, YE y Abdullah, HR Utilización de métodos de aprendizaje automático para la predicción preoperatoria de la mortalidad posquirúrgica y el ingreso a la unidad de cuidados intensivos (2020). Wu, J., Roy, J. y Stewart, WF Modelado de predicción utilizando datos de EHR. Atención médica 48, S106 – S113. https://doi.org/10.1097/mlr.0b013e3181de9e17 (2010). Artículo PubMed Google Scholar Abraham, CR y cols. Predictores de reingreso hospitalario después de cirugía bariátrica. Mermelada. Col. Cirugía. 221, 220–227. https://doi.org/10.1016/j.jamcollsurgi.2015.02.018 (2015). Artículo PubMed Google Scholar Chen, T. y Guestrin, C. XGBoost: un sistema de impulso de árboles escalable. En Actas de la 22ª Conferencia Internacional ACM SIGKDD sobre Descubrimiento de Conocimiento y Minería de Datos, KDD '16, 785–794, https://doi.org/10.1145/2939672.2939785 (ACM, Nueva York, NY, EE. UU., 2016). J, N. y col. Desarrollo y validación de modelos de aprendizaje automático para predecir fugas gastrointestinales y tromboembolismo venoso después de una cirugía de pérdida de peso: un análisis de la base de datos mbsaqip. Cirugía. Endosc. 35, 182-191. https://doi.org/10.1007/s00464-020-07378-x (2021). Artículo de Google Scholar van der Laan, MJ, Polley, EC y Hubbard, AE Súper alumno. Estadística. Aplica. Genética Mol. Biol. https://doi.org/10.2202/1544-6115.1309 (2007). Artículo MATEMÁTICAS MathSciNet Google Scholar Torquati, M. y col. Uso del algoritmo de súper aprendizaje para predecir el riesgo de reingreso a los 30 días después de una cirugía bariátrica en los Estados Unidos. Cirugíahttps://doi.org/10.1016/j.surgi.2021.06.019 (2021). Artículo PubMed Google Scholar Litjens, G. y col. Una encuesta sobre el aprendizaje profundo en el análisis de imágenes médicas. Medicina. Imagen Anal. 42, 60–88. https://doi.org/10.1016/j.media.2017.07.005 (2017). Artículo PubMed Google Scholar Schwyzer, M. y col. Detección automatizada de cáncer de pulmón con PET/CT de dosis ultrabaja mediante redes neuronales profundas: resultados iniciales. Cáncer de pulmón 126, 170-173. https://doi.org/10.1016/j.lungcan.2018.11.001 (2018). Artículo PubMed Google Scholar Tajbakhsh, N. et al. Redes neuronales convolucionales para análisis de imágenes médicas: ¿entrenamiento completo o ajuste fino? Traducción IEEE. Medicina. Imágenes 35, 1299-1312. https://doi.org/10.1109/tmi.2016.2535302 (2016). Artículo PubMed Google Scholar Liu, Y. et al. Un sistema de aprendizaje profundo para el diagnóstico diferencial de enfermedades de la piel. Medicina natural. 26, 900–908. https://doi.org/10.1038/s41591-020-0842-3 (2020). Artículo ADS CAS PubMed Google Scholar Kwon, J.-M., Kim, K.-H., Jeon, K.-H. & Park, J. Aprendizaje profundo para predecir la mortalidad hospitalaria entre pacientes con enfermedades cardíacas según la ecocardiografía. Ecocardiografía 36, 213–218. https://doi.org/10.1111/echo.14220 (2019). Artículo PubMed Google Scholar Arsanjani, R. et al. Predicción de la revascularización después de la perfusión miocárdica mediante aprendizaje automático en una población grande. J. Nucl. Cardiol. 22, 877–884. https://doi.org/10.1007/s12350-014-0027-x (2015). Artículo PubMed Google Scholar Xue, Y., Du, N., Mottram, A., Seneviratne, M. & Dai, AM Aprender a seleccionar las mejores tareas de pronóstico para la predicción de resultados clínicos. En Avances en sistemas de procesamiento de información neuronal vol. 33 (eds Larochelle, H. et al.) 15031–15041 (Curran Associates, Inc., Berlín, 2020). Google Académico Ross, MK, Wei, W. & Ohno-Machado, L. “big data” y la historia clínica electrónica. Añob. Medicina. Informar. 23, 97-104. https://doi.org/10.15265/iy-2014-0003 (2014). Artículo de Google Scholar Xiao, C., Choi, E. y Sun, J. Oportunidades y desafíos en el desarrollo de modelos de aprendizaje profundo utilizando datos de registros médicos electrónicos: una revisión sistemática. Mermelada. Medicina. Informar. Asociación. 25, 1419-1428. https://doi.org/10.1093/jamia/ocy068 (2018). Artículo PubMed PubMed Central Google Scholar Guo, C. y Berkhahn, F. Incorporaciones de entidades de variables categóricas (2016). arXiv:1604.06737. Hausdorff, F. Problemas de momento para un intervalo finito. Matemáticas Z. 16, 220–248 (1923). Artículo MATEMÁTICAS MathSciNet Google Scholar Guyon, I. y Elisseeff, A. Introducción a la selección de variables y características. J. Mach. Aprender. Res. 3, 1157–1182 (2003). MATEMÁTICAS Google Scholar Yamada, M., Jitkrittum, W., Sigal, L., Xing, EP y Sugiyama, M. Selección de características de alta dimensión mediante lazo kernelizado por características. Computación neuronal. 26, 185–207. https://doi.org/10.1162/neco_a_00537 (2014). Artículo PubMed MATH MathSciNet Google Scholar Climente-González, H., Azencott, C.-A., Kaski, S. & Yamada, M. Block HSIC Lasso: Detección de biomarcadores sin modelo para datos de dimensiones ultraaltas. Bioinformática 35, i427 – i435. https://doi.org/10.1093/bioinformatics/btz333 (2019). Artículo CAS PubMed PubMed Central Google Scholar Dua, D. & Graff, C. Repositorio de aprendizaje automático de la UCI (2017). El programa de acreditación y mejora de la calidad de cirugía metabólica y bariátrica (2017). Red de obtención y trasplante de órganos. Asignación simultánea de hígado y riñón 2016. (2016). Seiffert, C., Khoshgoftaar, TM, Van Hulse, J. y Napolitano, A. Rusboost: un enfoque híbrido para aliviar el desequilibrio de clases. Traducción IEEE. Sistema. Hombre Cibernético. Sistema Parte A. Tararear. 40, 185-197. https://doi.org/10.1109/TSMCA.2009.2029559 (2010). Artículo de Google Scholar Esmeir, S. & Markovitch, S. Algoritmos basados en anticipación para la inducción de árboles de decisión en cualquier momento. En Actas de la XXI Conferencia Internacional sobre Aprendizaje Automático, ICML '04, 33, https://doi.org/10.1145/1015330.1015373 (Asociación para Maquinaria de Computación, Nueva York, NY, EE. UU., 2004). Torquati, M. y col. Uso del algoritmo de súper aprendizaje para predecir el riesgo de reingreso a los 30 días después de una cirugía bariátrica en los Estados Unidos. Cirugíahttps://doi.org/10.1016/j.surgi.2021.06.019 (2021). Artículo PubMed Google Scholar Ershoff, BD y cols. Entrenamiento y validación de redes neuronales profundas para la predicción de la mortalidad a 90 días post-trasplante de hígado utilizando datos de un registro. Transpl. Proc. 52, 246–258. https://doi.org/10.1016/j.transproceed.2019.10.019 (2020). Artículo de Google Scholar Pearson, KX sobre el criterio de que un sistema dado de desviaciones de lo probable en el caso de un sistema correlacionado de variables es tal que se puede suponer razonablemente que ha surgido de un muestreo aleatorio. Londres. Edinb. Filos de Dublín. revista J. Ciencias. 50, 157-175. https://doi.org/10.1080/14786440009463897 (1900). Artículo MATEMÁTICAS Google Scholar Ding, C. y Peng, H. Selección de características de redundancia mínima a partir de datos de expresión genética de microarrays. J. Bioinformar. Computadora. Biol. 03, 185-205. https://doi.org/10.1142/S0219720005001004 (2005). Artículo CAS Google Scholar Yang, W., Wang, K. y Zuo, W. Selección de características del componente de vecindario para datos de alta dimensión. JCP 7, 161–168. https://doi.org/10.4304/jcp.7.1.161-168 (2012). Artículo de Google Scholar Keany, E. Borutashap: Un método de selección de características envolventes que combina el algoritmo de selección de características de Boruta con valores shapley. Zenodohttps://doi.org/10.5281/zenodo.4247618 (2020). Artículo de Google Scholar Vellido, A., Lisboa, PJ y Vicente, D. Análisis sólido de los datos del tumor cerebral de la señora utilizando t-gtm. Neurocomputación 69, 754–768. https://doi.org/10.1016/j.neucom.2005.12.005 (2006). Nuevos temas en neurocomputación: 13º Simposio europeo sobre redes neuronales artificiales. Christopher, JJ, Nehemiah, HK, Arputharaj, K. & Moses, GL Sistema de toma de decisiones médicas asistido por computadora para el diagnóstico de urticaria. Política y práctica de MDM 1, 2381468316677752. https://doi.org/10.1177/2381468316677752 (2016). PMID: 30288410. Descargar referencias Esta colaboración fue apoyada por las subvenciones NIH R01 CA253475, U01 CA265735 y R21 DK110530. Departamento de Ingeniería Eléctrica y de Sistemas, Universidad de Washington en St. Louis, St. Louis, MO, 63130, EE. UU. Yao-Chi Yu, Wei Zhang y Jr-Shin Li División de Ciencias Computacionales y de Datos, Universidad de Washington en St. Louis, St. Louis, MO, 63130, EE. UU. David O'Gara y Jr-Shin Li División de Biología y Ciencias Biomédicas, Universidad de Washington en St. Louis, St. Louis, MO, 63130, EE. UU. Jr-Shin Li División de Ciencias de la Salud Pública, Departamento de Cirugía, Facultad de Medicina de la Universidad de Washington, St. Louis, MO, 63110, EE. UU. Su-Hsin Chang También puedes buscar este autor en PubMed Google Scholar. También puedes buscar este autor en PubMed Google Scholar. También puedes buscar este autor en PubMed Google Scholar. También puedes buscar este autor en PubMed Google Scholar. También puedes buscar este autor en PubMed Google Scholar. J.-SL y S.-HC diseñaron el proyecto. Y.-CY, WZ y J.-SL desarrollaron los métodos Moment Kernel Machine; Y.-CY, DOG y WZ analizaron los datos; Y.-CY realizó experimentos numéricos y creó figuras; Y.-CY, WZ, DOG, J.-SL y S.-HC escribieron el texto principal del manuscrito. S.-HC obtuvo financiación y aportó conocimientos estadísticos; S.-HC y J.-SL revisaron y revisaron críticamente el manuscrito y supervisaron el estudio. Correspondencia con Jr-Shin Li o Su-Hsin Chang. Los autores declaran no tener conflictos de intereses. Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales. Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado al autor(es) original(es) y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/. Reimpresiones y permisos Yu, YC., Zhang, W., O'Gara, D. et al. Una máquina central de momento para la extracción de datos clínicos para informar la toma de decisiones médicas. Representante científico 13, 10459 (2023). https://doi.org/10.1038/s41598-023-36752-7 Descargar cita Recibido: 29 de octubre de 2022 Aceptado: 09 de junio de 2023 Publicado: 28 de junio de 2023 DOI: https://doi.org/10.1038/s41598-023-36752-7 Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido: Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo. Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt Al enviar un comentario, acepta cumplir con nuestros Términos y pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.