Después de sufrir una "enfermedad extraña" durante 3 años y buscar tratamiento médico en vano, finalmente le diagnosticaronChatGPT¡Diagnóstico exitoso! Esta es una experiencia real que le pasó a un niño de 4 años. Después de cierto ejercicio, comenzó a sentir fuertes dolores en el cuerpo. Su madre la mostró de un lado a otro.17 doctoresSegún pediatras, ortopédicos y diversos expertos, se realizaron una serie de exámenes como resonancias magnéticas, pero nadie encontró realmente la causa.
Su madre intentó buscar ayuda en ChatGPT sin grandes esperanzas, pero este último directamente le dio el consejo correcto basándose en la descripción y el informe de inspección.
Tan pronto como salió el tema, llegó a la lista candente de Zhihu y la popularidad de Reddit también se disparó a 2,3k.
Algunos internautas dijeron que GPT es realmente emocionante esta vez:
Cada consultorio médico podría equiparse con un asistente de IA y compararlo con su propio diagnóstico.
Algunos internautas siguieron el ejemplo de Med-PaLM, un gran modelo auxiliar de diagnóstico médico especialmente entrenado por Google, y quisieron conocer sus resultados de diagnóstico:
Para modelos grandes, esta es una tarea de prueba casi perfecta.
Entonces, ¿qué está pasando exactamente?
¿Qué tipo de "enfermedad extraña" es?
El protagonista de la historia se llama Alex y su madre Courtney tiene dos hijos.
Un día de 2020, la niñera de Alex le dijo a Courtney que Alex tenía que tomar analgésicos todos los días, de lo contrario colapsaría por el dolor.
Entonces, Alex empezó a rechinar los dientes de nuevo. Sus padres vincularon las dos cosas y pensaron que podría ser causado por el dolor causado por el reemplazo de dientes o por caries.
Entonces mi madre llevó a Alex a verdentista, Alexhasta tres añosEl viaje de buscar tratamiento médico comenzó oficialmente.
El dentista no encontró ningún problema luego del examen, pero sugirió que como Alex rechinaba los dientes, les recomendaba acudir a un profesional para tratar la obstrucción de las vías respiratorias.Ortodoncista.
El ortodoncista descubrió que la mandíbula superior de Alex era demasiado pequeña, lo que dificultaba la respiración, por lo que le colocó un expansor. Este método de tratamiento tuvo efecto y la madre alguna vez pensó que la enfermedad de Alex se curaría pronto.
Es razonable, pero la realidad muchas veces es ilógica.
Su madre pronto descubrió que Alex, que sólo tenía cuatro años, había perdido peso repentinamente.
Esta vez, mi madre pidió ayuda a unpediatra.
Los médicos pensaron que Alex podría haber sido afectado por el coronavirus, pero su madre no quedó satisfecha con esta explicación. Sin embargo, mi madre todavía llevó a Alex a una revisión a principios de 2021.
El médico le dijo a su madre que Alex había "crecido un poco más", pero descubrió que los pies izquierdo y derecho de Alex estaban algo desequilibrados y sugirió que eligieran fisioterapia.
Esta vez, su madre creyó las palabras del médico, pero antes de que comenzara la fisioterapia, Alex volvió a desarrollar síntomas de dolor de cabeza, que se volvieron cada vez más intensos.
El asunto de la fisioterapia tuvo que dejarse en suspenso por el momento y mi madre llevó a Alex a verlo primero.Neurología (medicina interna)Doctor, la conclusión es que Alex sufre de migrañas.
Mientras luchaba contra los dolores de cabeza, Alex también padecía síntomas de agotamiento, por lo que lo llevaron aOtorrinolaringologíaConsulte con su médico para ver si hay algún problema sinusal que esté afectando su sueño.
Después de experimentar estos giros y vueltas, Alex finalmente comenzó a recibir fisioterapia.fisioterapeutaSe cree que Alex puede tener una enfermedad congénita llamada malformación de Chiari.
Este trastorno congénito causa anomalías en el cerebro donde el cráneo se une con la columna.
La madre comenzó a investigar esto y llevó a Alex a ver a un nuevo pediatra.Medicina Interna Pediátricadoctor,medicina interna para adultosdoctor ymusculoesqueléticoMédico, etc.
Al final, Alex vio hasta 17 médicos. Se puede decir que visitó casi todos los departamentos imaginables e incluso fue enviado a un hospital.Emergencia, pero todavía no pude descubrir por qué.
Hasta que ChatGPT provocó un giro de 180 grados en todo el incidente.
Con la mentalidad de intentarlo, mi madre registró una cuenta ChatGPT.
Ingresó los síntomas de Alex y las notas del informe de resonancia magnética, incluido un detalle de que Alex no podía sentarse con las piernas cruzadas.
ChatGPT da el diagnóstico——síndrome del cordón atado(TCS).
Por supuesto, Courtney no lo creyó directamente. Después de recibir la respuesta, primero encontró un grupo de comunicación para padres de niños con hijos en Facebook.
Después de leer la discusión, mi madre sintió que estos síntomas eran muy similares a los de Alex.
Este descubrimiento reavivó el fuego casi extinguido de la esperanza. Después, mi madre recordó que se sentó frente a la computadora toda la noche y experimentó todo.
Con esta conclusión y el informe de resonancia magnética de Alex, se encontróneurocirugíadoctor.
Esta vez finalmente encontramos a la persona adecuada. El médico echó un vistazo a la resonancia magnética y llegó a la misma conclusión que ChatGPT, y señaló la ubicación específica de la correa.
Las cosas fueron mejor después de eso. Alex fue operado y actualmente se está recuperando.
Entonces, ¿por qué Alex no recibió el diagnóstico final hasta que vio al médico número 18?
primero, y también tiene cierta relación con el propio Alex.
Las personas con TCS a menudo desarrollan hendiduras en la espalda, pero Alex no tenía una hendidura, una condición llamada síndrome del cordón oculto oculto (OTCS).
Aunque el TCS es una enfermedad rara, su incidencia en los recién nacidos no es baja, alrededor del 0,005% al 0,025%, que es mayor que la incidencia de la leucemia.
Chen Yingge, Mi Yang. Un caso de múltiples anomalías del desarrollo fetal durante el embarazo [J]. Progreso en medicina clínica, 2023, 13(2)
Pero la OTCS es relativamente rara, tan rara que no se ha calculado en absoluto la tasa de incidencia.
Pero después de todo, al final de la historia, el cirujano hizo un juicio rápido después de ver las imágenes de resonancia magnética.
entonces, no se pudo diagnosticar antes, tal vez por "encontrar al médico equivocado": entre los 17 médicos, ninguno se dedicaba a la cirugía.
Por supuesto, esto es normal. Después de todo, todos son especialistas (correspondientes a médicos generales) que son buenos en sus respectivos campos de especialización. Es inevitable que no tengan una comprensión integral del conocimiento fuera de sus especialidades.
Pero esto también expuso un problema. Cuando encontraron problemas inexplicables, estos médicos no consideraronconsulta multidisciplinaria, tampoco se sabe si se ha consultado en profundidad el historial médico de Alex.
En palabras de su madre, Courtney, nadie estaba dispuesto a resolver "el problema mayor (más allá de su propia disciplina)" y nadie daría ninguna pista sobre el diagnóstico.
La base de conocimientos de ChatGPT es al menos mucho más rica que la de los profesionales en campos subdivididos. Tiene en cuenta la situación de Alex de forma más exhaustiva y finalmente llega a la conclusión correcta.
Entonces, ¿el diagnóstico exitoso de ChatGPT esta vez es un error o realmente tiene capacidades de diagnóstico?
¿Se puede utilizar la IA para el diagnóstico?
De hecho, esta no es la primera vez que alguien utiliza ChatGPT o GPT-4 como herramienta de diagnóstico de enfermedades.
Por ejemplo, poco después de que apareciera GPT-4, alguien lo usó para diagnosticar con éxitopropio perroUna especie de caso, esta experiencia una vez explotó en Internet.
Le contó a GPT-4 los síntomas del perro desde la primera aparición, el proceso de tratamiento y el informe de cada análisis de sangre:
El día 20 tuvo fiebre alta de 41,5 grados centígrados. El médico le diagnosticó babesiosis canina basándose en los resultados de los análisis de sangre (se adjuntan los resultados de los análisis de sangre). Recibió tratamiento con antibióticos durante los siguientes tres días. El día 24 recibió tratamiento con antibióticos, pero sus encías palidecieron (se adjuntan nuevos resultados de análisis de sangre).
GPT-4 rápidamente dio los resultados de la detección e indicó en la conversación que puede deberse a las dos razones siguientes:
1. Hemólisis: Destrucción de glóbulos rojos por diversos motivos, como anemia hemolítica inmunomediada (IMHA), toxinas u otras infecciones distintas a la babesiosis.
2. Pérdida de sangre: Sangrado interno o externo, que puede ser causado por un traumatismo, una cirugía o problemas gastrointestinales (como úlceras o parásitos).
El diagnóstico final del médico mostró que el perro efectivamente padecía anemia hemolítica inmunomediada (IMHA), y el perro se salvó después de que se le administró la medicación adecuada.
Además, algunos internautas informaron que fueron pirateados por ChatGPT (GPT-4).salvó una vidaexperiencia.
Le dolía todo el cuerpo después de ir al gimnasio. Después de consultar a GPT-4 sobre su condición, obtuvo la respuesta de "rabdomiolisis" e inmediatamente fue al hospital y murió como resultado.
Sin embargo, algunos estudios académicos han mencionado que ni ChatGPT ni GPT-4 son médicos de IA en los que se pueda confiar completamente.
Por ejemploHospital de la Universidad de HarvardUn estudio del Brigham and Women's Hospital (BWH) publicado en JAMA demostró que al dar recomendaciones de tratamiento contra el cáncer, ChatGPT acertaba completamente sólo el 62% de las veces.
En otros casos, el 34% de las sugerencias contenían al menos una o más respuestas que no coincidían con el diagnóstico correcto, y el 2% de los casos dieron un diagnóstico inverosímil.
En este sentido, el estudio cree que el diagnóstico no puede dejarse completamente en manos de ChatGPT o GPT-4. Después de todo, todavía no pueden compararse con los médicos profesionales en el proceso de diagnóstico.
(Sin embargo, algunos internautas señalaron que la razón por la cual ChatGPT no pudo diagnosticar con éxito también puede estar relacionada con los datos de entrenamiento, y la información del tratamiento después de 2021 no está incluida)
En este sentido, Andrew Beam, profesor asistente de epidemiología de la Universidad de Harvard, cree que los efectos del uso de ChatGPT y GPT-4 deben verse desde dos lados:
Por un lado, es mejor utilizarlos que algún software de diagnóstico común o motores de búsqueda de Google, especialmente la versión GPT-4.
Pero, por otro lado, no es probable que todavía reemplacen a los médicos con experiencia sustancial. Después de todo, para la IA, es posible fabricar información cuando no pueden encontrar la respuesta e inferir resultados erróneos basándose en "alucinaciones".
Jesse M. Ehrenfeld, presidente de la Asociación Médica Estadounidense (AMA), dijo que incluso si la IA puede diagnosticar los resultados, la responsabilidad final recae en el propio médico.
Para resumir el punto de vista anterior, cualquiera puede usar la IA para ayudar a diagnosticar la enfermedad, que es más fácil de usar que los motores de búsqueda, pero al final aún tiene que ir al hospital y encontrar un médico para el diagnóstico.
Entonces, si planea utilizar un modelo grande para la "consulta", ¿qué modelo grande es mejor usar?
Algunos internautas se utilizaron a sí mismos como caso para probar si varios modelos de lenguaje grandes tienen capacidades de diagnóstico y finalmente pensaron queGPT-4Comparativamente capaz de:
Consulté a varios médicos sobre la causa de mi tos crónica, pero finalmente supe en un canal de YouTube que tenía LPR (Reflujo Laringofaríngeo Latente).
Probé el modelo grande usando mis propios estuches,GPT-4fue el único diagnosticado con éxito. Aunque Claude2 tuvo una respuesta cercana, no pudo diagnosticarla de forma completamente independiente.
¿Alguna vez ha intentado utilizar IA para ayudar a diagnosticar su afección? ¿Cómo se siente?