Card

Actualidad · Artículo

La IA se cura en salud: advertencias de seguridad en las aplicaciones inteligentes

 31.07.2024 · AstraZeneca · 4 min

“Puedo ayudarte a entender mejor tus síntomas y sugerirte posibles causas, pero no soy un médico, por lo que no puedo ofrecer un diagnóstico oficial”. Es la respuesta del conocido Chat GPT, consultado por varios síntomas comunes. La asistente de voz Alexa añade habitualmente la recomendación de acudir a un profesional sanitario cuando se le pide consejo sobre algún malestar físico.

 

No es una cuestión solo de prudencia. Tanto estas extendidas herramientas de uso general, como las aplicaciones específicas de diagnóstico o consejo médico, utilizan todo tipo de advertencias anticipándose al posible mal uso de los ciudadanos o las propias limitaciones de la IA. Incluso estando detrás la mismísima OMS, la promotora de salud digital Sarah, deja bien claro que “no está diseñada para dar consejos médicos”, y que “no garantiza la exactitud del contenido de las conversaciones creadas por la IA generativa”.    

 

Hay muchos ejemplos. “DxGPT es un experimento de investigación” es el saludo inicial de la plataforma IA adoptada por el Servicio Madrileño de Salud. Por su parte, la app para comprobación de síntomas Healthily, usa la fórmula: “No debe olvidar que nuestro chat no sustituye a un médico y/o especialista”, de la misma manera que Symtomate recuerda: “El chequeo no es un diagnóstico. Es solo para su información y no una opinión médica cualificada”.

 

 

Exención de responsabilidades y consentimiento previo
 

Además de la advertencia de sus limitaciones y el consejo de acudir al médico, las herramientas IA incluyen sus fórmulas para eximir las responsabilidades de los desarrolladores sobre las decisiones que el ciberpaciente adopte cuando obtenga la información. Es común incluir una larga lista en este tipo de aplicaciones, donde los usuarios suelen tener que aceptar explícitamente los términos y condiciones.

Los mecanismos de protección son aún más robustos cuando estas tecnologías se utilizan en estudios con pacientes, que firman un consentimiento previo, o en aplicaciones empleadas por los hospitales, que establecen acuerdos donde se detallan las limitaciones de la herramienta y la necesidad de supervisión médica constante.

 

Es evidente que por muy inteligente que sea, por muy entrenada que esté, la IA puede cometer errores. Para empezar, porque los modelos basados en el lenguaje pueden incluir fallos de interpretación, tanto por la aplicación como por la información aportada por un paciente poco formado. En segundo lugar, porque la precisión de la IA depende de la calidad, cantidad y diversidad de los datos con los que se entrenó. Si son poco representativos o hay un sesgo, el diagnóstico puede ser incorrecto.

Back to top button image