Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Temas |RIESGO EN LÍNEA

Doctora IA: crecen las consultas médicas a chatbots y en la web

El fenómeno del autodiagnóstico a través de búsquedas en internet y herramientas de inteligencia artificial tuvo un aumento exponencial impulsado por la accesibilidad de la tecnología y la necesidad de respuestas rápidas

Doctora IA: crecen las consultas médicas a chatbots y en la web

Cada vez más personas confían en consejos médicos de la IA o que se publican en la web / Grok

25 de Mayo de 2025 | 06:23
Edición impresa

Muy mal que nos pese y aunque el peligro esté latente, ya no hace falta atravesar la sala de espera de una guardia, soportar una fila en el hospital o consultar por un turno en el sistema privado para que alguien nos diga qué tenemos... (Sin que nos importe cuán profesional es ese consejo).

En pleno 2025, cada vez más personas se lanzan solas a interpretar sus síntomas con la ayuda de Google, aplicaciones móviles y, más recientemente, sistemas de inteligencia artificial diseñados para ofrecer diagnósticos inmediatos. ¿Se trata de una revolución sanitaria o de una ilusión peligrosa?

La escena es cada vez más común: un leve dolor abdominal, una mancha nueva en la piel, una racha de insomnio. Antes, quizás uno esperaba a ver si pasaba. Hoy, es habitual que el primer reflejo sea buscar en el celular. “Dolor en el lado izquierdo de la panza + cansancio”, escriben muchos, con la esperanza de que la respuesta aparezca en los primeros resultados. La búsqueda es frenética, impulsiva, una mezcla de miedo y necesidad de control. Y lo que se encuentra es un océano de información muchas veces contradictoria, alarmista o incompleta.

Al fenómeno se lo conoce como cibercondría, y no es nuevo. Lo que sí se está transformando es la herramienta. Lo que antes eran foros y páginas médicas genéricas, ahora son aplicaciones que simulan el accionar de un profesional. Algunos ejemplos son Medgic, Ada, SkinVision, Symptomate. O incluso el reciente y polémico caso de Doctronic, una startup estadounidense que ofrece un chat médico basado en IA capaz de emitir un diagnóstico en menos de 15 minutos y con una precisión anunciada del 70%. El sistema permite acceder luego a una consulta con un médico humano por 40 dólares, pero muchos usuarios ni siquiera llegan a esa etapa: se quedan con la respuesta que les dio la máquina.

 

Las personas se lanzan solas a interpretar síntomas con la ayuda de la IA o Google

 

La promesa es atractiva. La tecnología permite, en teoría, llegar a zonas desatendidas, ahorrar tiempo, reducir costos del sistema sanitario. En Argentina, se están desarrollando iniciativas como ÜMA Health, que a través de una selfie y unas pocas preguntas intenta estimar el riesgo cardiovascular. Pero la pregunta es otra: ¿hasta qué punto estas herramientas son efectivas y seguras? ¿Y qué consecuencias tienen para la salud pública y mental?

 

Recomiendan un uso responsable y promueven que haya transparencia en los algoritmos

 

Según un estudio citado por CBS News, los sistemas automáticos aciertan el diagnóstico correcto solo en el 34% de los casos. El margen de error es enorme, y las consecuencias pueden ser graves. Desde generar ansiedad innecesaria hasta minimizar un síntoma preocupante. “Estamos en un momento crítico”, asegura la médica clínica Andrea Migliore. “La gente está cada vez más informada, pero también más confundida. Y nosotros tenemos que luchar con los diagnósticos previos que los pacientes ya traen del celular”.

La paradoja es que muchas de estas herramientas se presentan como aliadas del sistema médico, pero en la práctica terminan reemplazando consultas. No por decisión de los desarrolladores, sino por una mezcla de accesibilidad y desconfianza social. “No quiero ir al hospital, ahí te enfermás más”, decía un usuario en un foro. “Prefiero confiar en la app”, sumaba otro. Hay una erosión de la relación médico-paciente que no se resuelve con más datos ni con mejores algoritmos.

En América Latina, el debate sobre la regulación es incipiente. Un relevamiento de TN señala que el 84% de los médicos argentinos expresa preocupación por la falta de un marco legal que regule el uso de inteligencia artificial en salud. No se trata solo de ética, sino de responsabilidad: ¿quién responde si la IA se equivoca? ¿Quién pone límites a su uso? ¿Y quién garantiza que no se convierta en una excusa para reducir la inversión en atención primaria?

Del otro lado, también está la experiencia subjetiva del paciente. Consultar con un chatbot puede ser menos intimidante que hablar con un médico. La IA no juzga, no interrumpe, no apura. Es probable que por eso muchos jóvenes –especialmente aquellos que padecen trastornos de ansiedad o síntomas vagos– prefieran abrir una aplicación en lugar de levantar el teléfono. En algunos casos, incluso, la IA ofrece contención mejor que un profesional apurado o desactualizado.

Pero cuando esa contención se transforma en diagnóstico, y ese diagnóstico en tratamiento, la delgada línea entre ayuda y peligro se vuelve borrosa. Así lo demostró el caso de “Tessa”, un chatbot que fue lanzado por la National Eating Disorders Association de EE.UU. para guiar a personas con trastornos alimentarios. Pese a las buenas intenciones, terminó sugiriendo dietas restrictivas y mensajes dañinos, y debió ser desactivado en menos de una semana.

La Organización Mundial de la Salud ya advirtió sobre este tipo de desarrollos. Reconoce el potencial de la IA para democratizar el acceso a la salud, pero insiste en que las decisiones clínicas deben seguir siendo humanas. La tecnología puede asistir, agilizar, prevenir, pero nunca reemplazar la mirada integral, empática y crítica que solo un profesional puede ofrecer.

 

Los sistemas automáticos aciertan el diagnóstico solo en el 34% de los casos

 

El desafío, entonces, no es eliminar estas herramientas sino integrarlas de manera ética y cuidadosa. Educar a la población sobre su uso responsable, fomentar el pensamiento crítico, exigir transparencia en los algoritmos, y sobre todo, fortalecer el sistema de salud tradicional, que no debería competir con la IA sino apoyarse en ella.

En tiempos de hiperconectividad, el verdadero lujo tal vez no sea tener una aplicación que te diga qué tenés, sino contar con alguien que te escuche, te mire a los ojos y, más allá de los síntomas, te pregunte cómo estás. Porque al final, la medicina no es solo un diagnóstico. Es también un vínculo, una historia compartida, una apuesta a que el cuidado –aunque digitalizado– siga siendo humano.

Claves para evitar perjuicios para la salud

1 Riesgo de diagnósticos erróneos o incompletos: las herramientas digitales no pueden evaluar el contexto clínico completo de una persona. El mismo síntoma puede responder a múltiples causas, y sin un examen físico ni una historia clínica adecuada, los sistemas automáticos suelen dar diagnósticos erróneos o muy generales. Un médico capacitado puede detectar detalles que una IA o un motor de búsqueda jamás identificaría.

2 Aumento innecesario de la ansiedad: muchas personas terminan autoconvenciéndose de que tienen enfermedades graves basándose en resultados alarmistas encontrados online. Esto genera lo que se conoce como cibercondría: una preocupación excesiva y no justificada por la salud que puede afectar seriamente la calidad de vida.

3 Retrasa la consulta médica real: confiar en un autodiagnóstico puede hacer que los pacientes posterguen ir al médico, perdiendo tiempo valioso para detectar a tiempo enfermedades reales. En casos graves, como un infarto, un ACV o un cáncer, esa demora puede ser crucial.

4 Falsa sensación de control y seguridad: algunas aplicaciones o chatbots pueden generar la ilusión de que uno está “cuidándose” al consultar, pero sin una validación profesional, esa seguridad puede ser peligrosa. Hay personas que incluso comienzan a automedicarse basándose en esos diagnósticos erróneos, lo que puede agravar su estado.

5 Falta de contención emocional y mirada integral: un profesional de la salud no solo da un diagnóstico, también acompaña emocionalmente, contiene, pregunta, escucha, y orienta. La relación médico-paciente es clave para entender a la persona más allá de sus síntomas. Las IA no pueden interpretar el lenguaje corporal, los silencios, ni la angustia detrás de un dolor físico.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE a esta promo especial

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Full Promocional mensual

$650/mes

*LOS PRIMEROS 3 MESES, LUEGO $6100

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme

Básico Promocional mensual

$500/mes

*LOS PRIMEROS 3 MESES, LUEGO $3950

Acceso ilimitado a www.eldia.com

Suscribirme
Ver todos los planes Ir al Inicio
cargando...
Básico Promocional mensual
Acceso ilimitado a www.eldia.com
$500.-

POR MES*

*Costo por 3 meses. Luego $3950.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla