Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Temas |EFECTO EN AUTISTAS Y CONDUCTAS AUTOLESIVAS

Esto también puede pasar con la IA “si no hay consciencia”

Los chatbots no siempre son un buen acompañante de charla. Menos, si se busca reemplazar un acto humano con una tarea robotizada

Esto también puede pasar con la IA “si no hay consciencia”

Cuanto más amable se sea con el chatbot, mejores serán sus respuestas / Freepik

24 de Agosto de 2025 | 06:48
Edición impresa

Las conversaciones con chatbots parecen no tener fin. Esa cualidad, que en principio se presenta como una ventaja frente a la inmediatez y la frialdad de las interacciones digitales tradicionales, puede convertirse en un problema serio cuando se trata de usuarios con condiciones específicas, como las personas dentro del espectro autista. Organizaciones dedicadas a la defensa de sus derechos advierten que esa falta de cierre en el diálogo perpetuo puede generar ansiedad, desgaste emocional y hasta la sensación de que nunca existe un momento adecuado para ponerle un límite a la interacción. En un mundo donde las fronteras entre la máquina y el acompañamiento humano se vuelven difusas, la falta de sensibilidad en el diseño de las herramientas tecnológicas expone nuevas vulnerabilidades que todavía no encuentran respuestas claras.

Un caso que conmocionó recientemente expuso con crudeza esta problemática. Sophie Rottenberg, madre de una adolescente en Estados Unidos, relató cómo su hija, antes de quitarse la vida, había mantenido prolongadas conversaciones con ChatGPT. En esos intercambios, la joven volcó pensamientos íntimos y señales de un sufrimiento que no fue contenido ni acompañado de manera adecuada. Lo que para la tecnología era apenas un flujo de palabras, para una persona en crisis se trataba de un espacio que, en lugar de orientar hacia una ayuda real, se transformó en una caja de resonancia de su malestar. El relato encendió las alarmas acerca de qué ocurre cuando se confunde la disponibilidad permanente de un chatbot con una instancia segura de contención emocional.

La discusión sobre la “insensibilidad” de estas inteligencias artificiales no se centra solamente en lo que dicen o dejan de decir, sino en lo que su propia naturaleza mecánica no puede ofrecer: empatía genuina, pausas necesarias, silencios que inviten a la reflexión o señales que ayuden a detener una espiral de malestar. Mientras algunos usuarios encuentran en el diálogo interminable un refugio para la soledad, otros pueden quedar atrapados en un círculo del que resulta difícil salir. Para las personas autistas, ese bucle conversacional interminable puede exacerbar la dificultad para reconocer cuándo concluir una interacción social, llevándolos a estados de agotamiento o a una dependencia no deseada.

En respuesta a estas preocupaciones, OpenAI comenzó a implementar recordatorios que sugieren a los usuarios tomar descansos. Aunque se trata de un primer paso, especialistas sostienen que no alcanza con simples alertas. La interacción con la inteligencia artificial debería ser rediseñada desde una perspectiva más inclusiva, capaz de reconocer que no todos los usuarios parten de las mismas condiciones emocionales, cognitivas o sociales. La posibilidad de asesoramiento por parte de organizaciones vinculadas al autismo es un avance, pero aún queda un largo camino por recorrer en materia de accesibilidad digital y de ética en el uso de estas tecnologías.

Los riesgos de la insensibilidad tecnológica se vuelven evidentes cuando se contrastan con la necesidad humana de contención auténtica. La tragedia de la adolescente que volcó su dolor en un chatbot y la advertencia de quienes viven con autismo sobre los efectos nocivos de las conversaciones infinitas señalan un punto en común: la urgencia de comprender que estas herramientas no son neutrales ni inocuas. En su aparente disponibilidad inagotable, los chatbots pueden convertirse en espejos fríos donde la vulnerabilidad se multiplica, y en ese reflejo sin límites se corre el riesgo de que el usuario quede atrapado en un diálogo que nunca se cierra, pero que tampoco sana.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE a esta promo especial

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Full Promocional mensual

$670/mes

*LOS PRIMEROS 3 MESES, LUEGO $6280

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme

Básico Promocional mensual

$515/mes

*LOS PRIMEROS 3 MESES, LUEGO $4065

Acceso ilimitado a www.eldia.com

Suscribirme
Ver todos los planes Ir al Inicio
cargando...
Básico Promocional mensual
Acceso ilimitado a www.eldia.com
$515.-

POR MES*

*Costo por 3 meses. Luego $4065.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla