La inteligencia artificial generativa ha capturado la atención del mundo médico, prometiendo revolucionar desde el diagnóstico hasta la planificación terapéutica. Pero cuando se trata de anestesiología, donde las decisiones pueden ser literalmente de vida o muerte, ¿está ChatGPT realmente preparado para ayudarnos en la planificación preoperatoria?
Metodología: Poniendo a Prueba la IA
Los investigadores diseñaron un estudio mixto exploratorio utilizando 10 viñetas clínicas seleccionadas aleatoriamente. Solicitaron a ChatGPT-4.0 que generara planes anestésicos completos, incluyendo:
– Evaluación de riesgo cardiopulmonar
– Técnica anestésica intraoperatoria
– Manejo postoperatorio
Estos planes fueron comparados con los elaborados por ocho anestesiólogos consultores senior, y posteriormente evaluados por un comité de adjudicación a través de discusiones de grupos focales y análisis temático.
Resultados: Luces y Sombras de la IA
Los hallazgos revelaron un panorama complejo y preocupante:
Evaluación de riesgo cardiopulmonar: ChatGPT mostró frecuentes desacuerdos tanto con los consultores como con el comité de adjudicación. La evaluación de riesgo, fundamental para la planificación anestésica segura, resultó inconsistente y poco confiable.
Falta de variabilidad clínica: Las respuestas de ChatGPT fueron repetitivas y carecían de la diversidad que caracteriza la práctica anestésica real. Mostró una preferencia marcada por la anestesia general, ignorando completamente técnicas regionales que podrían ser más apropiadas en muchos casos.
Decisiones inconsistentes: El modelo mostró variabilidad inapropiada en aspectos críticos como:
– Manejo de la vía aérea
– Selección de analgesia postoperatoria
– Elección de medicamentos
Errores Críticos Identificados
Dos hallazgos fueron particularmente alarmantes desde la perspectiva de seguridad del paciente:
Manejo inadecuado del dolor postoperatorio: Las recomendaciones para analgesia postoperatoria fueron consistentemente deficientes, lo que podría resultar en sufrimiento innecesario del paciente y complicaciones relacionadas con dolor mal controlado.
Falla en recomendaciones de seguridad críticas: ChatGPT falló en recomendar intubación traqueal para pacientes con alto riesgo de aspiración pulmonar, una omisión que podría tener consecuencias catastróficas.
El Contexto de la Planificación Anestésica
La planificación preoperatoria en anestesiología es un proceso complejo que requiere:
Evaluación integral del paciente: Considerando comorbilidades, medicaciones, alergias, experiencias anestésicas previas y preferencias del paciente.
Análisis del procedimiento quirúrgico: Duración esperada, posición del paciente, pérdidas sanguíneas anticipadas, y requerimientos específicos del cirujano.
Consideración del contexto: Recursos disponibles, experiencia del equipo, y factores institucionales.
Razonamiento clínico: Integración de evidencia científica con experiencia clínica y juicio profesional.
Planificación de contingencias: Anticipación de complicaciones potenciales y preparación de planes alternativos.
¿Por Qué Falló ChatGPT?
Las limitaciones identificadas reflejan problemas fundamentales de los modelos de lenguaje grandes actuales:
Falta de razonamiento clínico real: ChatGPT genera texto basado en patrones estadísticos, no en comprensión médica genuina.
Ausencia de contextualización: No puede integrar múltiples variables clínicas de manera significativa.
Entrenamiento generalista: No fue entrenado específicamente en datasets de anestesiología de alta calidad.
Incapacidad para manejar incertidumbre: La medicina requiere toma de decisiones bajo incertidumbre, algo que los LLMs actuales no manejan bien.
Implicaciones para el Futuro
Este estudio no debe interpretarse como una condena definitiva de la IA en anestesiología, sino como una llamada de atención sobre las limitaciones actuales y la necesidad de desarrollo más específico.
Modelos especializados: Futuros sistemas de IA deberán ser entrenados específicamente en datasets de anestesiología de alta calidad.
Integración de datos del paciente: Los sistemas útiles deberán poder acceder e integrar datos reales del paciente, no solo responder a descripciones textuales.
Validación rigurosa: Cualquier herramienta de IA para planificación anestésica debe someterse a evaluación exhaustiva antes de considerarse para uso clínico.
Rol de apoyo, no reemplazo: La IA debe diseñarse para complementar, no reemplazar, el juicio clínico del anestesiólogo.
Reflexión Final: Prudencia en la Era de la IA
Este estudio nos recuerda que la implementación de inteligencia artificial en anestesiología debe ser gradual, cuidadosa y basada en evidencia sólida. Mientras que la IA tiene un potencial enorme para mejorar nuestra práctica, las herramientas actuales como ChatGPT no están listas para la planificación anestésica independiente.
El futuro de la IA en anestesiología será prometedor, pero requerirá desarrollo específico, validación rigurosa, y siempre mantendrá al anestesiólogo como el tomador final de decisiones. La seguridad del paciente debe ser siempre nuestra prioridad máxima.
¿Te interesa la IA aplicada a casos clínicos reales? En nuestro curso encontrarás una guía práctica y clara para empezar: www.cursosanestesia.com/ia.
Artículo original: “Generation of preoperative anaesthetic plans by ChatGPT-4.0: a mixed-method study” – British Journal of Anaesthesia
DOI: 10.1016/j.bja.2024.08.038

