Chatbots médicos: peligros de la IA

En los últimos años muchos recurren a chatbots y a la IA para preguntar por dolores, interpretar síntomas o pedir contención emocional. Las respuestas son rápidas, gratuitas y siempre están disponibles. Pero hay grandes riesgos en usar la IA como médico o psicólogo. En esta nota te contamos más.

La IA no es un profesional de la salud

Un joven recibe los resultados de sus estudios de laboratorio. Algunos datos no están dentro de los parámetros adecuados, ¿qué hace? Consulta con un chatbot antes de ver a su médico. 

Una mujer tiene un sarpullido extraño en uno de sus brazos, antes de tomar un turno con un dermatólogo sube una foto a una plataforma de IA y le consulta qué puede ser.

Un hombre siente malestar físico y emocional, fatiga, estrés, se siente solo. En vez de pedir ayuda a un profesional de la salud mental, le cuenta sus problemas a un chatbot. 

Estas tres escenas son reales y, por eso, alarmantes. Muestran el peligro de considerar que los doctores pueden ser reemplazados por la inteligencia artificial. 

Los chatbots que utilizan IA no son profesionales especializados en el cuidado de la salud. Son herramientas digitales que funcionan con modelos de lenguaje: generan textos a partir de información que recaban de internet o que reciben de los usuarios. En este sentido, son totalmente diferentes de los médicos. Los médicos ven a sus pacientes, evalúan los síntomas, los diagnostican basándose en estudios y signos observables. 

El uso de la IA por parte de personas para diagnosticar malestares puede ser muy peligroso. Los chatbots pueden pueden omitir señales clínicas importantes que solo detecta un médico durante una evaluación presencial (palpando zonas, observando a los pacientes, mirando resultados de tests clínicos). Además, los chats pueden producir respuestas incorrectas o inventadas que los usuarios, por no ser expertos en materia de salud, consideran confiables. Este tipo de respuestas pueden retrasar consultas con especialistas y agravar los cuadros. 

Los chatbots no son humanos

Médicos y psicólogos no solo procesan síntomas: escuchan la historia de vida, detectan matices emocionales, valoran riesgos sociales y ofrecen contención. Los chatbots, en cambio,  no pueden percibir esas microseñales de los pacientes, no pueden inferir datos ni reponerlos por el contexto. En la salud mental esto es especialmente peligroso, puesto que la falta de empatía humana lleva a la no detección de señales de riesgo vinculadas con la violencia o el suicidio. 

Por otro lado, la utilización de la IA en el tratamiento de la salud es complejo por otras implicancias éticas. La IA no puede asumir responsabilidades éticas por lo que expresa ni puede tomar decisiones clínicas. También, los datos que se comparten con la IA pueden quedar registrados y ser compartidos o utilizados sin que el usuario lo sepa. Los chatbots no protegen los datos sensibles ni la privacidad de las personas como sí lo hacen los profesionales de la salud. 

Entonces, si bien la IA puede resultar valiosa para la salud (como ya comentamos en otras notas), bajo ningún punto de vista reemplaza la relación entre médicos y pacientes. Cuando hay dolor (físico o mental) severo o síntomas preocupantes, es indispensable consultar con un profesional de la salud.

Compartí en tus redes

WhatsApp
Facebook
Twitter