Predicción de la mortalidad hospitalaria en pacientes con lesiones traumáticas: comparando diferentes SMOTE
BMC Medical Research Methodology volumen 23, número de artículo: 101 (2023) Citar este artículo
1026 Accesos
1 Citas
1 altmétrica
Detalles de métricas
El trauma es uno de los problemas de salud pública más críticos en todo el mundo, provoca muerte y discapacidad e influye en todos los grupos de edad. Por tanto, existe un gran interés en los modelos de predicción de la mortalidad en pacientes traumatizados ingresados en la UCI. El principal objetivo del presente estudio es desarrollar y evaluar herramientas de aprendizaje automático basadas en SMOTE para predecir la mortalidad hospitalaria en pacientes traumatizados con datos desequilibrados.
Este estudio de cohorte retrospectivo se realizó en 126 pacientes traumatizados ingresados en una unidad de cuidados intensivos del hospital de Besat en la provincia de Hamadan, en el oeste de Irán, entre marzo de 2020 y marzo de 2021. Los datos se extrajeron de los registros de información médica de los pacientes. De acuerdo con la propiedad desequilibrada de los datos, se utilizaron técnicas SMOTE, a saber, SMOTE, Borderline-SMOTE1, Borderline-SMOTE2, SMOTE-NC y SVM-SMOTE, para el preprocesamiento primario. Luego, se utilizaron los métodos Árbol de decisión (DT), Bosque aleatorio (RF), Bayes ingenuo (NB), Red neuronal artificial (ANN), Máquina de vectores de soporte (SVM) y Aumento de gradiente extremo (XGBoost) para predecir la hospitalización de los pacientes. Mortalidad con lesiones traumáticas. El rendimiento de los métodos utilizados se evaluó mediante sensibilidad, especificidad, valor predictivo positivo (VPP), valor predictivo negativo (VPN), precisión, área bajo la curva (AUC), media geométrica (medias G), puntuación F1 y P. -valor de la prueba de McNemar.
De los 126 pacientes ingresados en una UCI, 117 (92,9%) sobrevivieron y 9 (7,1%) fallecieron. El tiempo medio de seguimiento desde la fecha del trauma hasta la fecha del desenlace fue de 3,98 ± 4,65 días. El rendimiento de los algoritmos de ML no es bueno con datos desequilibrados, mientras que el rendimiento de los algoritmos de ML basados en SMOTE mejora significativamente. El área media bajo la curva ROC (AUC) de todos los modelos basados en SMOTE fue superior al 91%. La puntuación F1 y las medias G antes de equilibrar el conjunto de datos estaban por debajo del 70% para todos los modelos de ML excepto ANN. Por el contrario, la puntuación F1 y las medias G para los conjuntos de datos equilibrados alcanzaron más del 90% para todos los modelos basados en SMOTE. Entre todos los métodos de ML basados en SMOTE, RF y ANN basados en SMOTE y XGBoost basados en SMOTE-NC lograron el valor más alto para todos los criterios de evaluación.
Este estudio ha demostrado que los algoritmos de ML basados en SMOTE predicen mejor los resultados en lesiones traumáticas que los algoritmos de ML. Tienen el potencial de ayudar a los médicos de la UCI a tomar decisiones clínicas.
Informes de revisión por pares
El trauma es uno de los problemas de salud pública más críticos del mundo, provoca muerte y discapacidad e influye en todos los grupos de edad [1]. Las lesiones traumáticas son la principal causa de mortalidad en las primeras cuatro décadas de la vida [2]. El trauma causa 4,4 millones de muertes al año y representa casi el 8% de todas las muertes en todo el mundo [1, 3]. En este sentido, es importante encontrar soluciones para reducir el impacto de las lesiones traumáticas y el número de muertes derivadas de traumatismos. Por ejemplo, mejorar la capacidad de predecir el resultado de un paciente traumatizado con un alto grado de precisión e identificar factores importantes que influyen en el resultado del paciente puede ayudar a los equipos médicos de trauma en sus rápidos esfuerzos por tratar a los pacientes traumatizados.
Muchos estudios previos han utilizado métodos tradicionales, como los modelos logísticos y de regresión de Poisson, para identificar factores que influyen en las lesiones traumáticas [4,5,6]. Numerosos estudios también han utilizado como uno de los modelos más comunes el Trauma and Injury Severity Score (TRISS), que se basa en la regresión logística (LR) y utiliza una pequeña cohorte de un único centro para predecir la probabilidad de supervivencia de los pacientes con traumatismos. lesiones [7]. Sin embargo, el TRISS y sus diversas modificaciones son herramientas basadas en evidencia y los resultados de algunos estudios indican que pueden inducir a error a los médicos al clasificar erróneamente la condición del paciente [8]. Sin embargo, ambas categorías de modelos tuvieron un desempeño deficiente cuando estaban presentes colinealidad, heterocedasticidad, interacciones de orden superior y relaciones no lineales entre variables [9,10,11]. Por lo tanto, se necesitan herramientas de pronóstico más valiosas y precisas que no se limiten a estos supuestos para lograr mejores resultados para los pacientes y hacer el mejor uso de los recursos.
En las últimas décadas se han desarrollado métodos basados en algoritmos de aprendizaje automático cuya principal ventaja es que superan los problemas de los métodos clásicos [12, 13]. Recientemente, se han utilizado varios métodos de aprendizaje automático para predecir resultados en investigaciones médicas, especialmente en traumatismos [14,15,16,17,18,19]. Además, varios estudios han comparado el rendimiento de los métodos de aprendizaje automático con modelos de regresión y basados en evidencia, como TRISS, para predecir la mortalidad en pacientes traumatizados [11, 17].
Sin embargo, los algoritmos de ML pueden resultar inapropiados cuando encuentran datos desequilibrados. Un conjunto de datos desequilibrado es común en los datos médicos. Ocurre cuando hay muchas más instancias de una clase (clase mayoritaria) que de otra clase (clase minoritaria). En tales casos, la capacidad predictiva de los clasificadores se ve afectada porque están sesgados hacia las clases mayoritarias y clasifican erróneamente las instancias de las clases minoritarias. En consecuencia, los clasificadores proporcionan una alta precisión predictiva para la clase mayoritaria. Por lo tanto, si los datos están desequilibrados, el criterio de precisión no es adecuado para evaluar el desempeño de los clasificadores. Sin embargo, la clase minoritaria suele ser la clase principal que los investigadores quieren predecir con mayor precisión [20,21,22]. Sin embargo, el problema de los datos desequilibrados es crítico, pero las investigaciones han demostrado que en estudios recientes se ha prestado menos atención a este problema. En el caso del trauma, los datos generalmente están desequilibrados. Sin embargo, los resultados de una revisión sistemática reciente en esta área muestran que la mayoría de los estudios respaldan los beneficios de los modelos ML [23]. Sin embargo, los valores de la brecha de sensibilidad-especificidad mostraron un amplio rango (0,035 a 0,927), lo que destaca el riesgo de datos desequilibrados [10, 23].
Existen varios métodos para lidiar con clases desequilibradas, como volver a muestrear datos mediante sobremuestreo o submuestreo, aumentar el costo del error de clasificación de clases minoritarias o aprender solo una clase [21, 24, 25]. El método de sobremuestreo de minorías sintéticas (SMOTE) propuesto por Chawla et al. Es el primer modelo de la familia SMOTE que se utiliza ampliamente en problemas de desequilibrio [21]. Con el tiempo, se han propuesto muchos algoritmos SMOTE, como SMOTE límite, ADASYN, SMOTE-NC y SVM-SMOTE [26].
Hasta donde sabemos, la mayoría de los estudios realizados han evaluado el rendimiento de las técnicas SMOTE utilizando datos simulados y datos disponibles públicamente [27,28,29]. Además, pocos estudios han utilizado estas técnicas en trauma y no existe ningún estudio que haya abordado en profundidad la predicción de lesiones traumáticas en Irán. En este trabajo, se utilizaron cinco métodos SMOTE, como SMOTE, Borderline-SMOTE1, Borderline-SMOTE2, SMOTE-NC y SVM-SMOTE, para equilibrar conjuntos de datos desequilibrados. Seleccionamos estos métodos entre las numerosas variantes de SMOTE porque pertenecen a la categoría de técnicas de nivel de datos que se pueden combinar de manera flexible con otros métodos y son más fáciles de usar en comparación con los enfoques de nivel de algoritmo. Además, estos métodos son más adaptables ya que su aplicación no depende del clasificador elegido. También son los métodos de remuestreo más utilizados en la literatura [21, 26,27,28].
Por tanto, el principal objetivo de este estudio es comparar de forma exhaustiva el rendimiento de seis algoritmos de ML, a saber, DT, RF, NB, ANN, XGBoost y SVM, basados en cinco técnicas de la familia SOMT para predecir la mortalidad hospitalaria en pacientes con lesiones traumáticas. . Además, se remitió al hospital de Besat de la ciudad de Hamadan desde marzo de 2020 hasta marzo de 2021 la identificación de variables importantes para predecir la mortalidad hospitalaria en pacientes con lesiones traumáticas.
El presente estudio fue un estudio de cohorte retrospectivo realizado en 126 pacientes traumatizados. Estos pacientes fueron ingresados en una unidad de cuidados intensivos en el hospital de Besat de la provincia de Hamadan, en el oeste de Irán, desde marzo de 2020 hasta marzo de 2021. Los datos se extrajeron de los registros médicos de los pacientes. Nos centramos en la información sobre el estado de los pacientes traumatizados (vivos/muertos) como respuesta y los factores de riesgo relacionados al trauma. Los pacientes fueron seguidos desde el momento en que ingresaron a la UCI hasta su muerte o alta, y el tiempo medio de seguimiento desde la fecha del trauma hasta la fecha del desenlace fue de 3,98 días. Elegimos seis factores de riesgo asociados con el resultado del trauma, que incluyen edad, sexo (masculino, femenino), tipo de traumatismo (contundente, penetrante), ubicación de las lesiones (cabeza y cuello, tórax, abdomen y pelvis, columna, extremidades, lesiones múltiples). ), escala de coma de Glasgow (grave, moderado, menor) y glóbulos blancos (k/mm3) para evaluar el rendimiento de los métodos de ML.
Decision Tree es uno de los algoritmos más sencillos y populares para problemas de clasificación y regresión. El objetivo principal del DT es construir un modelo que pueda predecir el valor de una variable objetivo aprendiendo reglas de decisión simples deducidas de las características de los datos. Los nodos y las ramas son los dos componentes principales de un modelo DT. Los tres pasos esenciales para crear un modelo DT son dividir, detener y podar. La creación del árbol comienza con todos los datos de entrenamiento en el primer nodo. Luego, la primera partición divide los datos en dos o más nodos hijos en función de una variable predictora [30].
DT contiene tres tipos de nodos. (a) Un nodo raíz o nodo de decisión indica una decisión que dará como resultado la subdivisión de todas las características en dos o más subconjuntos mutuamente excluyentes. Este nodo no tiene rama de entrada y el número de ramas de salida puede ser cero o más. (b) Los nodos internos indican una de las posibles selecciones disponibles en la estructura de árbol; la rama de entrada del nodo está vinculada a su nodo principal y la rama de salida del nodo está vinculada a sus nodos secundarios o nodos hoja. (c) Los nodos hoja o nodos terminales indican la conclusión final de una combinación de decisiones o eventos. Estos tienen una rama de entrada y ninguna rama de salida [31].
El beneficio de DT contiene simplicidad en la interpretación, la facilidad para manejar valores categóricos y cuantitativos, la capacidad de completar valores faltantes en características con el valor más probable y solidez ante valores atípicos. El principal inconveniente del árbol de decisión es que puede estar expuesto a un ajuste excesivo o insuficiente, especialmente cuando se utiliza un conjunto de datos pequeño [32].
El método RF fue propuesto por primera vez por Leo Breiman [33]. Este algoritmo es un método de aprendizaje conjunto que se utiliza ampliamente en problemas de clasificación y regresión. Produce una gran cantidad de árboles de decisión a partir de submuestras del conjunto de datos. Cada árbol de decisión generará un resultado. Luego, el resultado final se obtiene basándose en los votos mayoritarios para la clasificación y el promedio para la regresión. Al principio, en este algoritmo, las muestras de arranque se extrajeron mediante el remuestreo de los datos originales. Aproximadamente el 37% de los datos se excluyen de cada muestra de arranque, denominados datos listos para usar o OOB. Luego, para cada una de las muestras de arranque, RF creará un árbol sin podar de la siguiente manera: en cada nodo del árbol, se seleccionaron aleatoriamente algunas variables de todas las variables y luego se eligió la mejor división entre esas variables. Todos los datos de decisión creados a partir de las muestras de arranque se combinan y analizan para obtener el modelo de RF final [13, 33].
El rendimiento del bosque aleatorio se puede estimar mediante su validación interna utilizando los datos OOB. Para cuestiones de clasificación, la tasa de error de clasificación del RF, que se denomina error fuera de bolsa (OOB), se calculará a partir de los datos OOB. Cada iteración de arranque se predecirá utilizando el árbol desarrollado con la muestra de arranque para los datos OOB. Luego se acumularán las predicciones OOB y se calculará la tasa de error o error OOB [34]. Un beneficio del error OOB es que se utilizan datos originales para su estimación y el otro beneficio de usarlo es la alta velocidad computacional [35]. Muchos estudios representan que el algoritmo RF, en comparación con otros algoritmos ML, tiene mayor estabilidad, robustez y alto rendimiento de clasificación. Además, puede preservar un alto rendimiento de clasificación cuando faltan datos [18]. Otra propiedad del método RF es la generación de reglas de predicción. Este método puede identificar variables esenciales [13].
El clasificador NB es un algoritmo simple que aplica el famoso teorema de Bayes con fuertes supuestos de independencia. De hecho, el clasificador NB supone que todas las variables predictoras son condicionalmente independientes entre sí. El método NB busca un clasificador claro, simple y muy rápido. El modelo de clasificación NB categorizó muestras calculando la probabilidad de que un objeto perteneciera a una categoría específica. Debido a la fórmula bayesiana, la probabilidad posterior se calcula de acuerdo con la probabilidad previa de un objeto, y la clase con la máxima probabilidad posterior se elige como clase del objeto. La fácil implementación, el buen rendimiento, trabajar con pocos datos de entrenamiento y realizar predicciones probabilísticas son ventajas del método NB. Además, no es sensible a funciones no relacionadas. Además, NB se ejecuta bien, incluso cuando se viola el supuesto de independencia. Sin embargo, requiere un uso computacional intensivo, especialmente para modelos que involucran muchas variables [15, 32].
Una red neuronal artificial inspirada en el funcionamiento de las neuronas del cerebro humano es un método de aprendizaje automático ampliamente utilizado que funciona muy bien en la clasificación y la identificación de patrones. El proceso de aprendizaje en este método se realiza mediante la recopilación de información mediante la detección de patrones y relaciones en los datos y el aprendizaje a través de la experiencia. Una red neuronal de alimentación directa multicapa consta de una capa de entrada, una o más capas ocultas y una capa de salida. La capa oculta es intermedia entre las capas de entrada y salida, y el número se especifica comúnmente con el método de validación cruzada. Cada capa está formada por unidades llamadas neuronas (nodos). Las neuronas en las dos capas adyacentes están completamente conectadas y cada conexión tiene un peso asociado, mientras que las neuronas dentro de la misma capa no están conectadas. En la red neuronal feed-forward, la información procede de forma unidireccional. La información atraviesa desde las neuronas de la capa de entrada y transita desde las neuronas de la capa oculta hasta las neuronas de salida. Además, en una red neuronal, las funciones de activación enseñan asignaciones complejas no lineales entre la entrada y la salida [13, 32]. En este estudio, utilizamos la función de activación sigmoidea porque es una función de activación no lineal que generalmente se usa antes de la capa de salida en la clasificación binaria.
El SVM se basa en la teoría del aprendizaje estadístico y fue sugerido por primera vez por Vapnik [36]. El objetivo principal de SVM es encontrar un modelo lineal particular que maximice el margen del hiperplano. Maximizar el margen del hiperplano maximizará la distancia entre clases. Los puntos de entrenamiento más cercanos al margen máximo de nubes son los vectores de soporte. Por lo tanto, la clasificación se realiza mapeando un vector de variables en un plano de alta dimensión maximizando el margen entre dos clases de datos. El algoritmo SVM puede clasificar observaciones tanto lineales como no lineales. Cuando los datos no son separables linealmente, SVM, utilizando una función del núcleo, transforma la entrada no lineal a un estado lineal en un espacio de características de alta dimensión y lleva a cabo la separación lineal en este nuevo espacio. Para hacer esto, se han propuesto y adoptado varias funciones kernel para SVM, como lineal, radial, polinomial y sigmoidea [13]. Seleccionar la función del kernel en SVM lo convierte en un método flexible [9]. En el presente estudio, empleamos la función kernel de base radial para su mejor desempeño.
El algoritmo XGBoost tiene un impulso de gradiente en su núcleo, pero es una versión mejorada del algoritmo de árbol de decisión impulsado por gradiente. Este algoritmo es un sistema de refuerzo de árboles escalable para superar largos tiempos de aprendizaje, y Chen y Guestrin desarrollaron el sobreajuste de los algoritmos de refuerzo tradicionales en 2016 [37]. El clasificador XGBoost sintetiza un clasificador base débil con un clasificador robusto. El error residual de un clasificador base se utiliza en el siguiente clasificador para optimizar la función objetivo en cada paso del proceso de entrenamiento [38]. Además, este algoritmo puede restringir el sobreajuste, disminuir los errores de clasificación, manejar los valores faltantes y minimizar los tiempos de aprendizaje mientras se desarrolla el modelo final [39].
Los modelos de aprendizaje automático tienen un gran potencial en predicción y clasificación. Sin embargo, comprender la complejidad de los resultados de los modelos predictivos es un poco complicado, lo que constituye una barrera para la admisión de los modelos ML. Por lo tanto, para superar este problema, Lundberg y Lee propusieron un nuevo enfoque de explicaciones aditivas de Shapley (SHAP) para interpretar predicciones para diferentes técnicas, incluido XGBoost. Nos ayuda a describir la predicción de una entrada específica calculando el impacto de cada característica en la predicción. Los valores SHAP obtienen interpretabilidad a través de gráficos resumidos y la importancia global de la variable [19].
El problema de clasificación de conjuntos de datos desequilibrados ocurre cuando el número de instancias de una clase es mayor que el de la otra clase. En problemas de clasificación con dos clases, la clase con más especímenes se denomina clase mayoritaria y la clase con un menor número de especímenes se denomina clase minoritaria [20]. El nivel de desequilibrio de clases de un conjunto de datos se mide mediante el índice de desequilibrio (IR). El IR se define como la relación entre el número de muestras de la clase mayoritaria y el número de muestras de la clase minoritaria. Cuanto mayor es el IR, mayor es el desequilibrio [40]. En tales casos, informar la precisión de la predicción como criterio de evaluación no es apropiado, ya que esto generalmente conduce a un sesgo a favor de la clase mayoritaria [21].
Se han propuesto dos enfoques principales para resolver el problema del desequilibrio de clases: un enfoque a nivel de datos y un enfoque basado en algoritmos. El enfoque a nivel de datos tiene como objetivo cambiar o modificar la distribución de clases en el conjunto de datos antes de entrenar un clasificador, lo que generalmente se realiza en la fase de preprocesamiento. El enfoque a nivel de algoritmo se centra en mejorar el clasificador actual adaptando los algoritmos para aprender clases minoritarias [41].
Generalmente se prefiere y se propone el enfoque a nivel de datos para tratar clases desequilibradas en problemas de clasificación. Esto podría deberse al hecho de que la composición de clases de los datos se puede ajustar a una proporción "relativamente equilibrada" agregando o eliminando cualquier número de instancias de clase en el conjunto de datos, dependiendo de la situación [42].
Otras razones que se pueden dar son: 1) Las muestras generadas por estos métodos representan el equilibrio correcto entre introducir varianza y aproximar la distribución original. 2) Estas técnicas son más fáciles de aplicar en comparación con los métodos a nivel de algoritmo porque los conjuntos de datos se limpian antes de usarlos para entrenar diferentes clasificadores. 3) Las técnicas a nivel de datos se pueden combinar de manera flexible con otros métodos [26,27,28].
El remuestreo o la síntesis de datos es el método más popular para procesar conjuntos de datos desequilibrados que se utilizan para el enfoque a nivel de datos. El enfoque de remuestreo se puede dividir en tres categorías: (i) sobremuestreo (ii) submuestreo (iii) muestreo híbrido [43]. En el sobremuestreo, el peso de la clase minoritaria aumenta repitiendo o generando nuevas muestras de la clase minoritaria. El submuestreo elimina aleatoriamente instancias de la clase mayoritaria para equilibrarlas con la clase minoritaria. El muestreo híbrido combina estos dos métodos para aprovechar los beneficios y desventajas de ambos enfoques [43]. El enfoque de sobremuestreo generalmente se aplica con más frecuencia que otros enfoques. Este enfoque se denomina familia SMOTE y a partir de SMOTE se desarrolló una colección de numerosas técnicas de sobremuestreo (85 variantes) [26]. Uno de los primeros métodos de sobremuestreo, SMOTE, es una poderosa herramienta para tratar con conjuntos de datos desequilibrados sugeridos por Chawla et al. [21]. SMOTE es una técnica de sobremuestreo que genera datos sintéticos para una clase minoritaria en función de su k vecino más cercano hasta que la proporción entre clases minoritarias y mayoritarias se vuelve más equilibrada. Los nuevos datos sintéticos son muy similares a los datos reales porque se producen en función de características iniciales [21].
La principal ventaja de SMOTE es que evita el sobreajuste al sintetizar nuevas muestras de la clase minoritaria en lugar de repetirlas [44].
Sin embargo, SMOTE también tiene algunas desventajas: sobremuestreo de muestras ruidosas, sobremuestreo de muestras límite [28]. Para superar estos problemas, se han empleado muchas estrategias en la literatura, entre ellas [28]:
Extensiones de SMOTE combinándolo con otras técnicas como el filtrado de ruido, por ejemplo, SMOTE-IPF y SMOTE-LOF.
Modificaciones de SMOTE, por ejemplo, SMOTE límite (B1-SMOTE y B2-SMOTE) y SVM-SMOTE.
Borderline-SMOTE es una extensión de SMOTE con una capacidad de rendimiento más poderosa propuesta por Han et al. en 2005. En este método, sólo se sobremuestran los ejemplos límite de la clase minoritaria. Un Borderline es una región donde las muestras de clases minoritarias están cerca de la mayoría. Al principio, el número de vecinos mayoritarios de cada instancia minoritaria se utiliza para dividir las instancias minoritarias en tres grupos: seguridad, ruido y peligro, y luego generar nuevas instancias. Supongamos que los vecinos de los puntos en la región peligrosa se consideran de clase minoritaria. En ese caso, este método se llama Borderline-SMOTE1, y cuando los vecinos del punto en la región de peligro se consideran de las clases minoritaria y mayoritaria, se llama Borderline-SMOTE2 [45]. La máquina de vectores de soporte SMOTE (SVM-SMOTE) es otra extensión de SMOTE que genera nuevas muestras sintéticas cerca del límite de decisión. Este enfoque utilizó SVM para detectar límites de decisión [46]. SMOTE-Nominal Continuo (SMOTE-NC) es un método de sobremuestreo que utiliza k vecinos más cercanos, aplicando distancias euclidianas modificadas para generar nuevas muestras sintéticas [21]. Este estudio introdujo las técnicas SMOTE que se utilizaron en la etapa inicial de preparación de datos y luego se realizó el entrenamiento de algoritmos de ML.
El rendimiento predictivo de los algoritmos de ML se evaluó utilizando varios criterios, incluida la sensibilidad, la especificidad, el valor predictivo positivo (VPP), el valor predictivo negativo (VPN), la precisión, el área bajo la curva (AUC), la media geométrica (medias G), F1. puntuación y valor P de la prueba de McNemar. Evaluamos el rendimiento predictivo de los métodos de ML utilizando un enfoque de validación cruzada en el que ambos grupos de conjuntos de datos, el conjunto de datos desequilibrado original y los conjuntos de datos equilibrados con SMOTE, se dividieron aleatoriamente en conjuntos de entrenamiento (70%) y de prueba (30%). Este proceso se repitió 100 veces. Luego, se calcularon los valores medios para cada criterio de evaluación en 100 repeticiones. Además, para evitar un ajuste excesivo, los algoritmos de ML realizaron cinco validaciones cruzadas para seleccionar los hiperparámetros óptimos. Se examinaron diferentes valores para cada uno de los hiperparámetros y se determinó el valor óptimo. Los valores óptimos de los hiperparámetros seleccionados para cada uno de los modelos ML se muestran en la Tabla 1.
En el presente estudio, todos los métodos de equilibrio SMOTE se ejecutaron mediante programación en el software Python versión 3.10.6 con el paquete "imbalanced-learn". Además, todos los análisis de los métodos de ML se implementaron utilizando el software R versión 4.1.1, con los siguientes paquetes: “e1071” para SVM; “nnet” para NN; “naivebayes” para NB; “randomForest” para RF e importancia variable (VIMP) en RF; “parte” para DT; “xgboost” para XGBoost; y "SHAPforxgboost" para el valor SHAP.
En este estudio, de los 126 pacientes ingresados en una unidad de cuidados intensivos, 117 (92,9%) estaban vivos y 9 (7,1%) estaban muertos. El tiempo medio de seguimiento desde la fecha del trauma hasta la fecha del desenlace fue de 3,98 ± 4,65 días, con un tiempo medio de seguimiento de 1,56 ± 0,73 días para los pacientes que fallecieron y 4,17 ± 4,77 días para los pacientes que sobrevivieron. La edad media global (± DE) de los pacientes con lesiones traumáticas fue de 37,71 ± 12,78 años, con un mínimo y un máximo de 18 y 60 años, respectivamente. Las características de los pacientes según sus lesiones traumáticas se detallan en la Tabla 2. La mayoría fueron hombres, 85 (67,5%). El valor medio de leucocitos de los pacientes vivos (9.066,67 ± 2.938,57) fue significativamente menor que el de los pacientes fallecidos (15.500 ± 4.492,22) (p < 0,001). El análisis univariante basado en la prueba de chi-cuadrado mostró que el tipo de traumatismo en los pacientes y la GCS se relacionaron significativamente con el resultado de las lesiones traumáticas. La mortalidad fue significativamente mayor entre los traumatismos penetrantes (18,5%) que en los traumatismos contusos (4%) (p = 0,022). En pacientes con GCS grave (50%), la mortalidad fue significativamente mayor que en pacientes con GCS moderado y menor (8,5%) (p <0,001).
Según los hallazgos, la proporción entre población muerta y viva era de 1:13 (IR = 13), lo que expresa un desequilibrio extremo entre las dos clases. Por lo tanto, se aplicaron varias técnicas de la familia SMOTE para enfrentar el desequilibrio de los datos en los conjuntos de datos originales.
Inicialmente, todos los clasificadores se realizan sobre los datos desequilibrados para representar el impacto del problema de los datos desequilibrados en el rendimiento de los clasificadores. Posteriormente, todos los clasificadores se realizan con datos equilibrados generados por técnicas de la familia SMOTE.
La Tabla 3 demuestra el rendimiento de los seis algoritmos de ML para la predicción de la mortalidad en pacientes con lesiones traumáticas en los conjuntos de datos desequilibrados (originales) y en el conjunto de datos equilibrado en términos de sensibilidad, especificidad, VPP, VPN, precisión, AUC, G-medias. , puntuación F1 y valor P de la prueba de McNemar. En el archivo adicional 1 se proporcionan más detalles sobre los intervalos de confianza del 95% para cada criterio de los modelos utilizados.
Uno de los resultados más importantes de la Tabla 3 es una discrepancia considerable entre la especificidad y la sensibilidad en todos los métodos de ML utilizados antes de equilibrar el conjunto de datos. Además, se puede ver en la Tabla 3 que en las filas del conjunto de datos original, todos los métodos utilizados tuvieron una alta precisión (≥ 90%). En comparación, los valores de sensibilidad para todos los algoritmos excepto ANN y XGBoost fueron inferiores al 55%, lo que significa que los clasificadores están sesgados hacia la clase mayoritaria.
Los resultados de la Tabla 3 muestran que todos los métodos utilizados, excepto XGBoost, tienen alta precisión (≥ 90%) y especificidad (≥ 92%) antes y después de las técnicas SMOTE. En comparación con los datos desequilibrados, la precisión de los clasificadores aumenta hasta un máximo del 8% con datos equilibrados. La sensibilidad y el AUC de todos los algoritmos utilizados antes de las técnicas SMOTE fueron significativamente menores que después de las técnicas SMOTE. La especificidad de todos los modelos excepto XGBoost disminuyó ligeramente después de la aplicación de técnicas SMOTE. En cinco modelos de ML, a saber, SVM, NB, DT, XGBoost y RF, la sensibilidad y la ACU aumentaron significativamente mediante el uso de técnicas SMOTE, pero el modelo ANN mostró un ligero aumento en estos criterios. Por ejemplo, con datos desequilibrados, el clasificador DT logró una sensibilidad del 26%, mientras que el resultado con la técnica SVM-SOMTE aumentó al 95%.
Antes de aplicar el algoritmo SMOTE, la puntuación G-media para DT era del 45% y para los demás modelos estaba entre el 60 y el 81%. Después de aplicar el algoritmo SMOTE, la puntuación G-media para todos los modelos superó el 91%.
La puntuación F1 osciló entre el 60 y el 81 % cuando se utilizaron datos no balanceados, mientras que aumentó hasta superar el 90 % para todos los modelos después de aplicar la técnica SMOTE.
Entre las técnicas de equilibrio de datos basadas en SMOTE, la técnica SMOTE-NC alcanzó el valor de precisión más alto para XGBoost (100%) y SVM (99%), NB y DT (96%), mientras que Borderline-SMOTE1 proporcionó el valor más alto. del 100% para el Modelo ANN. SMOTE para ANN y RF también obtuvo una precisión del 100% y 99%, respectivamente. La sensibilidad fue más alta para SMOTE a ANN, RF y NB, con el valor más alto de 100 %, 99 % y 99 %, respectivamente, mientras que Borderline-SMOTE1 tuvo el valor más alto de 100 % a ANN y 99 % para SVM. XGBoost con SMOTE-NC también arrojó una sensibilidad del 100% y DT con SMOTE-SVM arrojó una sensibilidad del 95%. Tres modelos de ML, a saber, XGBoost, SVM y DT con SMOTE-NC, lograron una especificidad y un PPV del 100 %, 99 % y 97 %, respectivamente. El modelo ANN para SMOTE y Borderline-SMOTE1 logró una especificidad y un PPV del 100%. La RF con SMOTE también tuvo especificidad y VPP del 99%.
Según la comparación del VPN de los algoritmos de ML, el rendimiento de los clasificadores ANN, SVM y RF que utilizan el método SMOTE fue del 100 %, 99 % y 99 %, respectivamente. Además, SMOTE-NC proporcionó el valor más alto de 100 % para XGBoost, Borderline-SMOTE1 proporcionó el valor más alto de 100 % para ANN y el método SVM-SMOTE logró el valor más alto de 97 % para el modelo DT.
Según AUC, el rendimiento de los clasificadores XGBoost, SVM, NB y DT con el método SMOTE-NC fue de 100%, 99%, 96% y 96%, respectivamente, mientras que Borderline-SMOTE1 dio el valor más alto de 100%. para el modelo RNA. Los clasificadores ANN y RF con SMOTE también obtuvieron AUC de 100% y 99%, respectivamente.
Finalmente, el valor P de la prueba de McNemar para todos los clasificadores fue superior a 0,05. En consecuencia, no hubo diferencias significativas entre las frecuencias de falsos positivos y falsos negativos entre dos clases.
En resumen, la técnica de equilibrio SMOTE-NC superó a las otras cuatro técnicas de equilibrio de datos según varios criterios de evaluación para cuatro clasificadores: SVM, NB, DT y XGBoost. Además, el modelo XGBoost superó a otros tres modelos de ML entre estos clasificadores de ML. La comparación del rendimiento de los clasificadores con técnicas SMOTE y sin SMOTE en términos de precisión, AUC, medias G y puntuación F1 se muestra en la Fig. 1. Los gráficos que comparan el rendimiento de los clasificadores según otros criterios se pueden encontrar en Adicionales. archivo 2.
Comparación del desempeño de clasificadores con técnicas SMOTE y sin SMOTE en términos de precisión, AUC, G-medias y puntuación F1
Según el conjunto de datos SMOTE, el modelo RF superó a los otros métodos ML según todos los criterios de evaluación. Por lo tanto, la Fig. 2 indica la importancia relativa de cada variable obtenida por el método RF en términos de precisión de disminución media y Gini de disminución media. Estos índices identificaron WBC, GCS y edad como las tres variables más importantes para predecir la mortalidad por lesiones traumáticas. Posteriormente, la localización de las lesiones y el sexo fueron variables importantes.
Importancia variable del método RF, en términos de precisión de disminución media y Gini de disminución media para predecir la mortalidad de pacientes con lesiones traumáticas. WBC: glóbulos blancos, GCS: escala de coma de Glasgow
Para comprender mejor el rendimiento del modelo XGBoost en la predicción de la mortalidad e identificar las variables que influyeron en el modelo de predicción, en la Fig. 3 se muestra el gráfico de resumen SHAP. Este gráfico indica la clasificación de la importancia de las variables y el valor medio de SHAP. Los valores SHAP positivos muestran que el modelo predice que los pacientes con lesiones traumáticas mueren, mientras que los valores SHAP negativos muestran que los pacientes con lesiones traumáticas sobreviven. Los valores SHAP más alejados de cero indican un mayor impacto para una variable específica.
Gráfico resumen SHAP para variables de entrada del modelo XGBoost para predecir la mortalidad de pacientes con lesiones traumáticas. WBC: glóbulos blancos, GCS: escala de coma de Glasgow
La Figura 3 demuestra que las variables más importantes que tienen un impacto significativo en la predicción del modelo XGBoost son GCS, WBC, tipo de trauma, edad y género. Además, se puede observar en la Fig. 3 que los pacientes que fallecieron según la predicción del modelo tenían valores altos en todas las variables importantes.
Según las Figs. 2 y 3, las variables importantes detectadas en la predicción de la mortalidad por lesiones traumáticas con los modelos RF y XGBoost fueron casi idénticas.
En el estudio actual, se aplicaron varios métodos de aprendizaje automático para predecir los resultados de lesiones traumáticas en pacientes traumatizados remitidos al hospital de Besat de la provincia de Hamadan. Los datos de este estudio estaban muy desequilibrados: aproximadamente el 7% de las personas fueron clasificadas como pacientes muertos. La relación de desequilibrio fue 13, lo que indica que por cada muestra de la clase minoritaria (muerta), había 13 muestras de la clase mayoritaria (viva). Por lo tanto, primero utilizamos técnicas de equilibrio SMOTE para crear clases equilibradas en el conjunto de datos original. Estas técnicas son enfoques de sobremuestreo de datos que generalmente se utilizan con más frecuencia que otros enfoques en los estudios y provocan un mejor rendimiento de los clasificadores [29, 43, 47,48,49,50,51]. Luego, se aplicaron métodos de aprendizaje automático para predecir la mortalidad hospitalaria de pacientes con lesiones traumáticas.
En este sentido, se construyeron y evaluaron seis algoritmos de aprendizaje automático, DT, RF, NB, ANN, SVM y XGBoost, para predecir los resultados de lesiones traumáticas en conjuntos de datos equilibrados y desequilibrados. Este estudio intentó mostrar el impacto indeseable de los problemas de datos desequilibrados en el rendimiento de los modelos de aprendizaje automático y aplicar métodos de equilibrio SMOTE para resolverlos.
En general, el rendimiento de los métodos de aprendizaje automático basados en conjuntos de datos equilibrados fue notablemente mejor que el de los modelos basados en el conjunto de datos desequilibrado original, como se esperaba. Esto indica que realizar predicciones utilizando las estrategias SMOTE en datos desequilibrados es racional.
Los hallazgos muestran una diferencia considerable entre la especificidad y la sensibilidad en todos los métodos de ML utilizados antes de aplicarlos a los métodos SMOTE, lo que indica que los clasificadores están sesgados hacia la clase mayoritaria. Al mismo tiempo, existe poca diferencia entre la sensibilidad y la especificidad de los algoritmos de aprendizaje automático basados en SMOTE. La ligera diferencia entre estos dos criterios también se observó en otros estudios [48, 49, 52, 53].
Además, los resultados de la evaluación mostraron una alta precisión para todos los métodos de ML excepto XGBoost antes de usar los métodos de equilibrio SMOTE.
La razón principal para lograr una alta precisión en tal situación es que los algoritmos de clasificación están sesgados hacia la clase mayoritaria. Algunos estudios han demostrado que cuando las clases están desequilibradas, la precisión de los clasificadores es ligeramente mayor que la de los clasificadores en datos equilibrados [48,49,50]. Sin embargo, algunos estudios demostraron un ligero aumento en la precisión de los clasificadores con datos equilibrados en comparación con datos desequilibrados [29, 51]. En el estudio actual, existió un ligero aumento en la precisión de los clasificadores con datos equilibrados en comparación con los datos desequilibrados. Por lo tanto, el criterio de precisión no es una medida suficientemente robusta cuando se enfrentan problemas de clasificación de conjuntos de datos desequilibrados. Por lo tanto, para evaluar el rendimiento de los algoritmos de ML, el criterio AUC se utiliza ampliamente para evaluar clasificadores en conjuntos de datos desequilibrados [26].
Los hallazgos mostraron que el área media bajo la curva ROC para todos los modelos de ML en conjuntos de datos equilibrados con SMOTE mejoró significativamente en comparación con la del conjunto de datos desequilibrado. Esto acentúa la importancia de utilizar técnicas de equilibrio SMOTE.
Aunque el rendimiento general de los algoritmos de aprendizaje automático basados en SMOTE es excelente, encontrar la técnica de equilibrio SMOTE adecuada para obtener los mejores resultados de los algoritmos ML es complicado. No existe una única técnica de equilibrio SMOTE que pueda lograr los mejores resultados para todos los algoritmos de ML.
El estudio actual muestra que los algoritmos de ML funcionan mejor con los datos equilibrados por SMOTE-NC y SMOTE. Además, entre todos los clasificadores de ML, los modelos ANN y RF en SMOTE y el modelo XGBoost en SMOTENC superaron a otros modelos de ML.
Cabe señalar que no fue posible realizar una comparación exhaustiva en el presente estudio por varias razones. En primer lugar, no se realizó ningún estudio previo sobre el uso de algoritmos de aprendizaje automático basados en SMOTE en el campo del trauma que se hayan centrado en el trauma general. Sin embargo, estos algoritmos se emplearon en algunos campos. Por ejemplo, Karajizadeh et al. habían comparado enfoques de equilibrio de submuestreo, sobremuestreo, SMOTE y ADASYN con SVM, ANN, árbol C5.0 y árbol CHAID para predecir la mortalidad hospitalaria por infecciones adquiridas en el hospital en pacientes traumatizados. Informaron que entre estos algoritmos de ML, el algoritmo SVM del enfoque de equilibrio SMOTE en términos de precisión superó a otros algoritmos de ML mediante enfoques de equilibrio. La precisión de la predicción de SVM con SMOTE fue del 100% [54]. Kumar y cols. También había evaluado el rendimiento de seis algoritmos de ML: DT, k-vecino más cercano, regresión logística, ANN, SVM y NB en cinco conjuntos de datos clínicos desequilibrados. Utilizaron siete técnicas de equilibrio para generar datos equilibrados, a saber, submuestreo, sobremuestreo aleatorio, SMOTE, ADASYN, SVM-SMOTE, SMOTEEN y SMOTETOMEK. Luego, los algoritmos de ML se aplicaron para la clasificación de datos equilibrados. Informaron que entre siete técnicas de equilibrio, SMOTEEN tenía el mejor rendimiento [29]. En segundo lugar, existen muchas técnicas de sobremuestreo en el campo del aprendizaje desequilibrado. Hasta ahora, se han desarrollado 85 técnicas de sobremuestreo para resolver el problema de los datos desequilibrados [26]. Como resultado, los estudios disponibles utilizaron diferentes técnicas SMOTE que hacen que la comparación sea difícil e imposible. En tercer lugar, el rendimiento tanto de las técnicas de sobremuestreo como de los modelos ML generalmente depende de los datos; no se puede detectar una técnica de sobremuestreo y un clasificador de ML que siempre sea el mejor para la clasificación de diferentes conjuntos de datos. En cuarto lugar, aunque varios estudios han investigado la predicción de la mortalidad de los pacientes traumatizados utilizando diferentes métodos de aprendizaje automático. Sin embargo, la mayoría de estos estudios se han concentrado en un tipo específico de traumatismo, como quemaduras, lesiones cerebrales, lesiones en la cabeza y lesiones dentales, y utilizaron el método NN [15,16,17, 55]. Por lo tanto, sólo se realizaron unos pocos estudios en el campo del trauma centrados en el trauma general.
En esta investigación, el modelo RF con SMOTE basado en los criterios de evaluación superó a más métodos ML. En consecuencia, el modelo RF se ha utilizado para identificar la importancia de las variables en la predicción de lesiones traumáticas. El resultado de la importancia de la variable basado en el modelo de bosque aleatorio demuestra que los glóbulos blancos y la escala de coma de Glasgow y la edad, en términos de precisión de disminución media y Gini de disminución media, tienen una importancia relativa mayor que otras variables. De estas variables, el WBC se identificó como un factor de riesgo importante relacionado con la mortalidad por traumatismo. Este resultado es consistente con los hallazgos de Almaghrabi et al. [47]. Compararon el rendimiento de DT, RF, ANN, SVM y regresión logística para predecir la mortalidad por lesiones traumáticas y descubrieron que todos los algoritmos de ML aplicados tienen una precisión de predicción similar del 94 %. Sin embargo, según el AUC, la regresión logística y la RF tienen el valor más alto y la SVM tiene el valor más bajo. Además, los resultados de su estudio mostraron que la ubicación del tratamiento y la edad también son otros factores importantes.
La validación externa es fundamental para establecer la validez y confiabilidad de los algoritmos de ML [56]. Por lo tanto, es necesario que haya intentos de validación externa de los algoritmos de aprendizaje automático basados en SMOTE utilizando un conjunto de datos externo alternativo. Por lo tanto, la falta de validación externa en nuestro estudio actual es una de las limitaciones.
Otra limitación del presente estudio es que los datos empleados aquí se obtuvieron de un estudio retrospectivo basado en registros, lo que hace que el análisis sea propenso a posibles sesgos en las estimaciones de medidas como la sensibilidad. Además, nuestro estudio tuvo un tamaño muestral pequeño. Por lo tanto, se necesitan estudios con muestras de gran tamaño para investigar el rendimiento y la confiabilidad de estos métodos. Además, factores como la escala de gravedad de la lesión (ISS), los signos vitales y la infección deben considerarse en futuros modelos predictivos en estos pacientes.
Recientemente, para superar las limitaciones de SMOTE, se han introducido nuevas versiones de SMOTE. Por lo tanto, los autores proponen utilizar las nuevas versiones de SMOTE, por ejemplo, A-SMOTE, RN-SMOTE, SMOTE-LOF, para abordar los desequilibrios y compararlos con las versiones anteriores de SMOTE para un análisis más detallado [28, 57, 58]. .
En este estudio, utilizamos SMOTE y modificaciones de SMOTE para tener en cuenta muestras límite en la clasificación de conjuntos de datos desequilibrados. En trabajos futuros, utilizaremos variantes de SMOTE para detectar muestras de ruido. También emplearemos métodos de aprendizaje profundo para detectar ruido y muestras límite y volver a muestrear datos.
Los modelos de predicción se utilizan ampliamente en la gestión sanitaria, las ciencias médicas y el apoyo a las decisiones clínicas. Estos métodos ayudan a identificar la tasa de lesiones de los pacientes, priorizar las amenazas inmediatas y la toma de decisiones en caso de trauma. De ahí que se produzca una mejor atención médica y el desarrollo de servicios de traumatología. Los modelos de predicción pueden ayudar a los médicos de la UCI a determinar qué pacientes tienen un alto riesgo de mortalidad y a quiénes se les debe dar prioridad para el tratamiento, permitiéndoles optimizar las intervenciones clínicas y mejorar el pronóstico de los pacientes. Según el excelente desempeño de los modelos de aprendizaje automático basados en la técnica SOMTE en la predicción de la mortalidad en este estudio, el diseño de sistemas precisos de apoyo a la toma de decisiones utilizando estos modelos facilita y acelera los procesos de gestión sanitaria.
Nuestro hallazgo demostró que los modelos RF y ANN con SOMTE y el modelo XGBoost con SMOTE-NC pueden ser mejores que otros modelos ML para predecir resultados de lesiones traumáticas en pacientes traumatizados en términos de todos los criterios. Además, la variable más importante que afecta la predicción de la mortalidad en pacientes traumatizados según el valor SHAP y el FR fueron los glóbulos blancos, la escala de coma de Glasgow y la edad. Sin embargo, estos resultados se basan en los hallazgos de nuestro estudio y no tienen capacidad de generalización. En consecuencia, se sugieren estudios de simulación para una mayor investigación. Se necesitan estudios de simulación para investigar los resultados generales y recomendar una herramienta valiosa para la predicción de la mortalidad hospitalaria en pacientes con lesiones traumáticas.
El conjunto de datos utilizado para el análisis durante el estudio actual no está disponible públicamente debido a restricciones relacionadas con la política de nuestra junta de revisión interna. Sin embargo, el conjunto de datos está disponible a través del autor correspondiente previa solicitud razonable.
Árbol de decisión
Bosque aleatorio
Bayes ingenuo
Red neuronal artificial
Máquinas de vectores soporte
Aumento de gradiente extremo
Explicaciones del aditivo SHapley
Valor predictivo positivo
Valor predictivo negativo
Área bajo la curva
Técnica de sobremuestreo de minorías sintéticas
Técnica de sobremuestreo de minoría sintética de máquina de vectores de soporte
Técnica de sobremuestreo de minoría sintética: nominal continuo
Duración de la estancia en la UCI
Células blancas de la sangre
Escala de coma de Glasgow
YousefzadehChabok S, RanjbarTaklimie F, Malekpouri R, Razzaghi A. Predicción de la mortalidad, duración de la estancia hospitalaria y necesidad de cirugía en pacientes pediátricos con traumatismos. Chin J Traumatol. 2017;20(06):339–42.
Artículo de Google Scholar
Azami-Aghdash S, Sadeghi-Bazargani H, Shabaninejad H, Gorji HA. Epidemiología de las lesiones en Irán: una revisión sistemática. J Inj Viola Res. 2017;9(1):27.
Google Académico
OMS. https://www.who.int/news-room/fact-sheets/detail/injuries-and-violence. 2022.
Kashkooe A, Yadollahi M, Pazhuheian F. ¿Qué factores afectan la duración de la estancia hospitalaria entre los pacientes traumatizados? Un estudio unicéntrico. Suroeste de Irán Chin J Traumatol. 2020;23(03):176–80.
Artículo PubMed Google Scholar
Rafieemehr H, Calhor F, Esfahani H, Gholiabad SG. Riesgo de leucemia linfoblástica aguda: resultados de un estudio de casos y controles. Cáncer asiático Pac J Anterior. 2019;20(8):2477.
Artículo CAS PubMed PubMed Central Google Scholar
Eftekhar B, Zarei MR, Ghodsi M, MoezArdalan K, Zargar M, Ketabchi E. Comparación de modelos logísticos basados en el componente motor GCS modificado con otras herramientas de pronóstico en la predicción de la mortalidad: resultados de un estudio en 7226 pacientes traumatizados. Lesión. 2005;36(8):900–4.
Artículo PubMed Google Scholar
de Munter L, Polinder S, Lansink KW, Cnossen MC, Steyerberg EW, de Jongh MA. Modelos de predicción de la mortalidad en la población traumatológica general: una revisión sistemática. Lesión. 2017;48(2):221–9.
Artículo PubMed Google Scholar
Elgin LB, Appel SJ, Grisham D, Dunlap S. Comparaciones de los resultados del trauma y la puntuación de gravedad de las lesiones. J Enfermeras de Trauma. 2019;26(4):199–207.
Artículo PubMed Google Scholar
Tapak L, Shirmohammadi-Khorram N, Amini P, Alafchi B, Hamidi O, Poorolajal J. Predicción de supervivencia y metástasis en pacientes con cáncer de mama mediante clasificadores de aprendizaje automático. Clin Epidemiol Salud Global. 2019;7(3):293–9.
Artículo de Google Scholar
Rau CS, Wu SC, Chuang JF, Huang CY, Liu HT, Chien PC, et al. Modelos de aprendizaje automático de predicción de supervivencia en pacientes traumatizados. J Clin Med. 2019;8(6):799.
Artículo PubMed PubMed Central Google Scholar
Kang WS, Chung H, Ko H, Kim NY, Kim DW, Cho J, et al. Inteligencia artificial para predecir la mortalidad hospitalaria mediante una nueva puntuación de lesiones anatómicas. Representante de ciencia ficción 2021;11(1):23534.
Artículo CAS PubMed PubMed Central Google Scholar
Montazeri M, Montazeri M, Montazeri M, Beigzadeh A. Modelos de aprendizaje automático en la predicción de la supervivencia del cáncer de mama. Atención sanitaria tecnológica. 2016;24(1):31–42.
Artículo PubMed Google Scholar
Hastie T, Tibshirani R, Friedman JH, Friedman JH. Los elementos del aprendizaje estadístico: minería de datos, inferencia y predicción. Nueva York: Springer; 2009.
Reservar Google Académico
Farhadian M, Torkaman S, Mojarad F. Algoritmo de bosque aleatorio para identificar factores asociados con lesiones dentales relacionadas con el deporte en niños atletas de 6 a 13 años en Hamadan, Irán-2018: un estudio transversal. BMC Sports Sci Med Rehabilitación. 2020;12:1–9.
Artículo de Google Scholar
Stylianou N, Akbarov A, Kontopantelis E, Buchan I, Dunn KW. Predicción del riesgo de mortalidad en lesiones por quemaduras: comparación de la regresión logística con enfoques de aprendizaje automático. Quemaduras. 2015;41(5):925–34.
Artículo PubMed Google Scholar
Serviá L, Montserrat N, Badia M, Llompart-Pou JA, Barea-Mendoza JA, Chico-Fernández M, et al. Machine learning techniques for mortality prediction in critical traumatic patients: anatomic and physiologic variables from the RETRAUCI study. BMC Med Res Methodol. 2020;20:1–12.
Artículo de Google Scholar
Abujaber A, Fadlalla A, Gammoh D, Abdelrahman H, Mollazehi M, El-Menyar A. Predicción de la mortalidad hospitalaria en pacientes con lesión cerebral postraumática con ventilación mecánica: enfoque de aprendizaje automático. BMC Med Informar a Decis Mak. 2020;20:1–11.
Artículo de Google Scholar
Xu Q, Yin J. Aplicación del algoritmo de bosque aleatorio en educación física. Programa de ciencia. 2021;2021:1–10.
Google Académico
Jabeur SB, Mefteh-Wali S, Viviani JL. Previsión del precio del oro con el algoritmo XGBoost y valores de interacción SHAP. Ann Opera Res. 2021;23:1–21.
Google Académico
Él H, García EA. Aprender de datos desequilibrados. IEEE Trans Knowl Data Ing. 2009;21(9):1263–84.
Artículo de Google Scholar
[Artículo gratuito de PMC] [PubMed] Chawla NV, Bowyer KW, Hall LO, Kegelmeyer WP. SMOTE: técnica de sobremuestreo minoritario sintético. J Artif Intell Res. 2002;16:321–57.
Artículo de Google Scholar
Nejad MG, Kashan AH. Un algoritmo de estrategia de evolución de agrupación eficaz mejorado con métodos heurísticos para el problema de equilibrio de la línea de montaje. J Adv Manuf Syst. 2019;18(03):487–509.
Artículo de Google Scholar
Liu NT, Salinas J. Aprendizaje automático para predecir resultados en trauma. Shock Inj Inflamm Sepsis Lab Clin Approaches. 2017;48(5):504–10.
Google Académico
Maldonado S, Weber R, Famili F. Selección de características para conjuntos de datos de desequilibrio de clases de alta dimensión utilizando máquinas de vectores de soporte. Ciencias Inf. 2014;286:228–46.
Artículo de Google Scholar
Liu M, Xu C, Luo Y, Xu C, Wen Y, Tao D. Selección de funciones sensibles al costo mediante la optimización de las medidas F. Proceso de imagen trans IEEE. 2017;27(3):1323–35.
Artículo de Google Scholar
Kovács G. Smote-variants: una implementación en Python de 85 técnicas de sobremuestreo minoritario. Neurocomputación. 2019;366:352–4.
Artículo de Google Scholar
Kovács G. Una comparación empírica y evaluación de técnicas de sobremuestreo minoritario en una gran cantidad de conjuntos de datos desequilibrados. Computación suave de aplicaciones. 2019;83:105662.
Artículo de Google Scholar
Hussein AS, Li T, Yohannese CW, Bashir K. A-SMOTE: Un nuevo enfoque de preprocesamiento para conjuntos de datos altamente desequilibrados mediante la mejora de SMOTE. Sistema Int J Comput Intell. 2019;12(2):1412–22.
Artículo de Google Scholar
Kumar V, Lalotra GS, Sasikala P, Rajput DS, Kaluri R, Lakshmanna K, et al., editores. Abordar la clasificación binaria sobre conjuntos de datos clínicos desequilibrados de clases utilizando técnicas computacionalmente inteligentes. Cuidado de la salud; 2022: MDPI.
Buntine W, Niblett T. Una comparación adicional de las reglas de división para la inducción de árboles de decisión. Mach aprende. 1992;8:75–85.
Artículo de Google Scholar
Zhang H, cantante BH. Particionamiento recursivo y aplicaciones. Nueva York: Springer Science & Business Media; 2010.
Reservar Google Académico
Ray S, editor Una revisión rápida de los algoritmos de aprendizaje automático. 2019 Conferencia internacional sobre aprendizaje automático, big data, nube y computación paralela (COMITCon); 2019: IEEE.
Breiman L. Bosques aleatorios. Aprendizaje automático. 2001;45:5–32.
Artículo de Google Scholar
Liaw A, Wiener M. Clasificación y regresión por randomForest. Noticias R. 2002;2(3):18–22.
Google Académico
Janitza S, Hornung R. Sobre la sobreestimación del error fuera de bolsa del bosque aleatorio. Más uno. 2018;13(8):e0201904.
Artículo PubMed PubMed Central Google Scholar
Vapnik V. La naturaleza de la teoría del aprendizaje estadístico. Nueva York: Springer Science & Business Media; 1999.
Google Académico
Chen T, Guestrin C, editores. Xgboost: un sistema de impulso de árboles escalable. Actas de la 22ª conferencia internacional acm sigkdd sobre descubrimiento de conocimientos y minería de datos. 2016.
Reservar Google Académico
Deif MA, Solyman AA, Alsharif MH, Uthansakul P. Sistema de clasificación automatizado para admisiones en cuidados intensivos durante la pandemia de COVID-19 utilizando un enfoque híbrido XGBoost-AHP. Sensores. 2021;21(19):6379.
Artículo CAS PubMed PubMed Central Google Scholar
AL-Shatnwai AM, Faris M. Predicción de la retención de clientes utilizando XGBoost y métodos de equilibrio. Int J Adv Comput Sci Appl. 2020;11(7):704–12.
Google Académico
Ali H, Salleh MNM, Saedudin R, Hussain K, Mushtaq MF. Problemas de desequilibrio de clases en la minería de datos: una revisión. Indonesio J Electric Eng Comput Sci. 2019;14(3):1560–71.
Artículo de Google Scholar
Gu Q, Cai Z, Zhu L, Huang B, editores. Minería de datos sobre conjuntos de datos desequilibrados. 2008 Conferencia internacional sobre teoría e ingeniería informática avanzada; 2008: IEEE.
Pristyanto Y, Pratama I, Nugraha AF, editores. Enfoque a nivel de datos para el manejo de clases desequilibrado en la clasificación multiclase de minería de datos educativos. 2018 Conferencia Internacional sobre Tecnologías de la Información y las Comunicaciones (ICOIACT); 2018: IEEE.
Ghorbani R, Ghousi R. Comparación de diferentes métodos de remuestreo para predecir el desempeño de los estudiantes utilizando técnicas de aprendizaje automático. Acceso IEEE. 2020;8:67899–911.
Artículo de Google Scholar
Jeatrakul P, Wong KW, Fung CC, editores. Clasificación de datos desequilibrados mediante la combinación de la red neuronal complementaria y el algoritmo SMOTE. Modelos y aplicaciones de procesamiento de información neuronal: 17ª Conferencia Internacional, ICONIP 2010, Sydney, Australia, 22 al 25 de noviembre de 2010, Actas, Parte II 17. Heidelberg: Springer; 2010.
Han H, Wang WY, Mao BH, editores. Borderline-SMOTE: un nuevo método de sobremuestreo en el aprendizaje de conjuntos de datos desequilibrados. Avances en Computación Inteligente: Conferencia Internacional sobre Computación Inteligente, ICIC 2005, Hefei, China, 23 al 26 de agosto de 2005, Actas, Parte I 1. Heidelberg: Springer; 2005.
Tang Y, Zhang YQ, Chawla NV, Krasser S. Modelado de SVM para clasificación altamente desequilibrada. IEEE Trans Syst Man Cyber B Cybern. 2008;39(1):281–8.
Artículo de Google Scholar
Almagrabí FSA. Métodos de aprendizaje automático para predecir los resultados de lesiones traumáticas. Reino Unido: Universidad de Manchester; 2021.
Google Académico
Ramezankhani A, Pournik O, Shahrabi J, Azizi F, Hadaegh F, Khalili D. El impacto del sobremuestreo con SMOTE en el desempeño de 3 clasificadores en la predicción de la diabetes tipo 2. Toma de decisiones médicas. 2016;36(1):137–44.
Artículo PubMed Google Scholar
Wu Y, Fang Y. Predicción de accidentes cerebrovasculares con métodos de aprendizaje automático entre chinos mayores. Int J Environ Res Salud Pública. 2020;17(6):1828.
Artículo PubMed PubMed Central Google Scholar
Wang J, Wang S, Zhu MX, Yang T, Yin Q, Hou Y. Predicción del riesgo de aparición de eventos cardiovasculares adversos importantes dentro de los 6 meses posteriores a la revascularización coronaria: estudio de aprendizaje automático. Informe médico JMIR. 2022;10(4):e33395.
Artículo PubMed PubMed Central Google Scholar
Ishaq A, Sadiq S, Umer M, Ullah S, Mirjalili S, Rupapara V, et al. Mejorar la predicción de la supervivencia de los pacientes con insuficiencia cardíaca utilizando SMOTE y técnicas efectivas de minería de datos. Acceso IEEE. 2021;9:39707–16.
Artículo de Google Scholar
Saad AI, Omar YM, Maghraby FA. Predecir la interacción farmacológica con los receptores de adenosina mediante aprendizaje automático y técnicas SMOTE. Acceso IEEE. 2019;7:146953–63.
Artículo de Google Scholar
Zheng X. Variantes SMOTE para clasificación binaria desequilibrada: predicción de enfermedades cardíacas. Los Ángeles: Universidad de California; 2020.
Google Académico
Karajizadeh M, Nasiri M, Yadollahi M, Zolfaghari AH, Pakdam A. Predicción de la mortalidad por infecciones adquiridas en hospitales en pacientes traumatizados utilizando un conjunto de datos desequilibrado. Información sanitaria Res. 2020;26(4):284–94.
Artículo de Google Scholar
Thara T, Thakul O. Aplicación del aprendizaje automático para predecir el resultado de una lesión cerebral traumática pediátrica. Chin J Traumatol. 2021;24(06):350–5.
Artículo de Google Scholar
Ho SY, Phua K, Wong L, Goh WWB. Extensiones de la validación externa para comprobar la interpretabilidad y generalización del modelo aprendido. Patrones. 2020;1(8):100129.
Artículo PubMed PubMed Central Google Scholar
Arafa A, El-Fishawy N, Badawy M, Radad M. RN-SMOTE: Ruido reducido basado en DBSCAN para mejorar la clasificación de datos desequilibrados. J King Saud Univ Comput Informar ciencia. 2022;34(8):5059–74.
Google Académico
Maulidevi NU, Surendro K. SMOTE-LOF para la identificación de ruido en clasificación de datos desequilibrados. J King Saud Univ Comput Informar ciencia. 2022;34(6):3413–23.
Google Académico
Descargar referencias
Nos gustaría agradecer al vicerrector de investigación y tecnología de la Universidad de Ciencias Médicas de Hamadan en Irán. Este trabajo cuenta con el apoyo del Vicerrector de Investigación y Tecnología de la Universidad de Ciencias Médicas de Hamadan, Irán (No. 140104282895).
Este estudio se realizó con la asistencia financiera de la Universidad de Ciencias Médicas de Hamadan (No. 140104282895).
Departamento de Bioestadística, Facultad de Salud Pública, Universidad de Ciencias Médicas de Hamadan, Hamadan, Irán
Roghayyeh Hassanzadeh
Centro de Investigación en Ciencias de la Salud, Departamento de Bioestadística, Facultad de Salud Pública, Universidad de Ciencias Médicas de Hamadan, Hamadan, Irán
Maryam Farhadian
Departamento de Ciencias de Laboratorio Médico, Facultad de Paramedicina, Universidad de Ciencias Médicas de Hamadan, Hamadan, Irán
Hassan Rafiemore
También puedes buscar este autor en PubMed Google Scholar.
También puedes buscar este autor en PubMed Google Scholar.
También puedes buscar este autor en PubMed Google Scholar.
RH contribuyó a la preparación de la propuesta, contribuyó al análisis, preparó las tablas y figuras, redactó y revisó el manuscrito. MF propuso la idea de la investigación, supervisó la metodología general, contribuyó al análisis, redacción, revisó críticamente el manuscrito y supervisó la versión revisada del manuscrito. RR.HH. proporcionó datos e información clínica. Todos los autores leyeron y aprobaron el manuscrito final.
Correspondencia a Maryam Farhadian o Hassan Rafieemehr.
Este estudio fue aprobado por un comité de ética en investigación de la Universidad de Ciencias Médicas de Hamadan con el código (IR. UMSHA. REC.1401.261). El estudio cumplió con las directrices y regulaciones pertinentes. Captamos el consentimiento informado por escrito de todos los participantes y analfabetos de representantes legalmente autorizados. El estudio cumplió con las directrices y regulaciones pertinentes.
No aplica.
Los autores declaran no tener conflictos de intereses.
Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.
Comparación del rendimiento predictivo de los métodos de aprendizaje automático basados en SMOTE en términos de intervalos de confianza del 95 % de los criterios de evaluación en un conjunto de datos de prueba.
Figura A1. La comparación de desempeño de clasificadores con técnicas SMOTE y sin SMOTE en términos de sensibilidad, Especificidad. Figura A2. La comparación de desempeño de clasificadores con técnicas SMOTE y sin SMOTE en términos de Valor Predictivo Positivo y Valor Predictivo Negativo.
Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado al autor(es) original(es) y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/. La exención de dedicación de dominio público de Creative Commons (http://creativecommons.org/publicdomain/zero/1.0/) se aplica a los datos disponibles en este artículo, a menos que se indique lo contrario en una línea de crédito a los datos.
Reimpresiones y permisos
Hassanzadeh, R., Farhadian, M. & Rafieemehr, H. Predicción de la mortalidad hospitalaria en pacientes con lesiones traumáticas: comparación de diferentes algoritmos de aprendizaje automático basados en SMOTE. Método BMC Med Res 23, 101 (2023). https://doi.org/10.1186/s12874-023-01920-w
Descargar cita
Recibido: 06 de julio de 2022
Aceptado: 13 de abril de 2023
Publicado: 22 de abril de 2023
DOI: https://doi.org/10.1186/s12874-023-01920-w
Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:
Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.
Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt