La incapacidad de dialogar, la discriminación de fondos y las urgencias a resolver
Con más de 70 mil visitantes, “La Plata en Flor” vive su último día en Plaza Moreno
Árboles caídos y vecinos sin luz: lo que dejó la tormenta en La Plata
Empresarios platenses frenan inversiones por baja en las ventas
La agenda deportiva del domingo llena de ilusiones a los futboleros: partidos, horarios y TV
Tras la lluvia, vino el alivio: refrescó y estará nublado en La Plata
Tendencia suicida con la inteligencia artificial: un peligro en red que jaquea a la juventud
Salas de escape educativas: juego, desafíos y trabajo en equipo
La elección de graduados cerró con un giro clave en Naturales
Carne “al horno”: fuerte suba y se viene otro aumento para las Fiestas
Colapinto puso quinta a fondo por el regreso del GP de Argentina
¿Estás buscando trabajo en La Plata? GRATIS, mirá los empleos de esta semana publicados en EL DIA
Chile elige presidente: el miedo, la esperanza y el hartazgo
Peces Raros: un regreso hipnótico a casa en el marco de Noches Capitales
Entre la concentración y la desigualdad: las brechas previsionales en el Gran La Plata
Johnny arrasó en La Plata: postales de una jornada histórica
¡Descuentos que se festejan! En Nini, esta semana comprá mejor que nunca
Súper Cartonazo por $10.000.000, sale o sale: los números de este domingo 16 de noviembre
Fabiola Yañez rompió el silencio con Mirtha Legrand: “Alberto Fernández me quiere sacar a mi hijo”
“Yiya”: así es la ficción sobre Murano, la “envenenadora de Monserrat”
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
La viralización de mensajes autolesivos en entornos digitales reabre el debate sobre cómo la tecnología impacta en la salud mental. Expertos advierten que las plataformas de IA pueden amplificar la soledad y retrasar la búsqueda de ayuda profesional
El aumento de los casos de ideación suicida en entornos digitales reaviva el debate sobre el papel de la tecnología en la salud mental. La creciente dependencia de plataformas de inteligencia artificial, redes sociales y sistemas automatizados para expresar angustia o buscar contención emocional plantea interrogantes sobre los límites de la asistencia virtual. A medida que la frontera entre la conversación humana y la interacción con algoritmos se vuelve más difusa, los especialistas advierten que la exposición prolongada a estos entornos puede amplificar el aislamiento y dificultar la búsqueda de ayuda profesional, convirtiendo a la tecnología en un espacio donde la vulnerabilidad emocional se hace visible, pero no siempre se contiene.
OpenAI informó que más de un millón de personas muestran cada semana señales de intenciones suicidas al utilizar ChatGPT, según estimaciones presentadas en una publicación oficial de la compañía. El hallazgo forma parte de una actualización sobre cómo el chatbot gestiona conversaciones sensibles y constituye una de las declaraciones más directas del desarrollador de inteligencia artificial acerca del impacto potencial de su tecnología en la salud mental.
OpenAI informó que más de un millón de personas muestran cada “señales suicidas”
De acuerdo con los datos difundidos por la empresa, cada semana aproximadamente el 0,07 % de los usuarios activos —lo que equivale a unos 560.000 de los 800 millones de personas que interactúan con el sistema— presentan signos de crisis de salud mental relacionadas con psicosis o manía. OpenAI advirtió que estas conversaciones son difíciles de identificar y que el análisis es preliminar.
LE PUEDE INTERESAR
Casos que crecen hasta convertirse en la primera causa de muerte violenta
LE PUEDE INTERESAR
Falacias y hechos; cómo cuidar el auto: lo que el mecánico nunca te dijo
El informe aparece en un contexto de creciente escrutinio sobre la compañía, especialmente tras la demanda presentada por la familia de un adolescente que se suicidó luego de mantener conversaciones extensas con ChatGPT. En paralelo, la Comisión Federal de Comercio de Estados Unidos (FTC) inició una investigación para evaluar cómo las empresas de inteligencia artificial, incluida OpenAI, miden los posibles impactos negativos en niños y adolescentes.
En su publicación, OpenAI sostuvo que su modelo más reciente, GPT-5, redujo la frecuencia de comportamientos indeseables y mejoró la seguridad del usuario. Según la compañía, en una evaluación que incluyó más de mil conversaciones sobre autolesiones y suicidio, el nuevo sistema alcanzó un “cumplimiento del 91 % con los comportamientos deseados”, frente al 77 % del modelo anterior.
La empresa indicó que GPT-5 amplió el acceso a líneas de ayuda en crisis y añadió recordatorios automáticos para que los usuarios tomaran descansos durante sesiones prolongadas. También señaló que 170 profesionales clínicos de su Red Global de Médicos Expertos en Salud colaboraron en la investigación para revisar la seguridad de las respuestas del modelo y participar en la redacción de mensajes relacionados con salud mental.
Como parte de este trabajo, psiquiatras y psicólogos evaluaron más de 1.800 respuestas de modelos anteriores y del nuevo GPT-5 ante situaciones graves, comparando la pertinencia de las recomendaciones ofrecidas. La definición de “respuesta deseable” se basó en el consenso alcanzado por los expertos sobre cuál sería la intervención adecuada en cada caso.
Psiquiatras y psicólogos evaluaron chats con la IA ante situaciones graves
La publicación de OpenAI evitó establecer vínculos causales entre el uso de ChatGPT y las crisis de salud mental reportadas por los usuarios, una cautela que los investigadores interpretan como un intento de limitar la responsabilidad de la empresa. Aun así, los datos divulgados alimentan el debate sobre el papel de la inteligencia artificial en contextos de vulnerabilidad emocional.
Especialistas en salud mental y expertos en inteligencia artificial advierten desde hace tiempo que los chatbots tienden a confirmar las ideas o decisiones de los usuarios, incluso cuando estas resultan perjudiciales, un fenómeno conocido como “servilismo”. Diversos organismos de salud pública también han manifestado preocupación por el uso de sistemas automatizados como apoyo psicológico, debido al riesgo de que refuercen comportamientos autodestructivos o impidan que las personas busquen ayuda profesional.
El anuncio de OpenAI se suma a una serie de discusiones globales sobre la necesidad de establecer normas éticas y marcos regulatorios para la inteligencia artificial generativa. Mientras la tecnología avanza, la gestión responsable de las interacciones humanas con estos sistemas continúa siendo un desafío central para la industria.
1 Números absolutos crecientes por escala de usuarios: a medida que las plataformas de IA aumentaron su base de usuarios (centenares de millones de usuarios activos semanales), incluso una fracción pequeña de conversaciones con riesgo se traduce en cifras muy grandes en términos absolutos (millones de interacciones por semana). OpenAI mismo lo señala como una explicación parcial del tamaño del fenómeno.
2 Mayor visibilidad y auditorías recientes: el anuncio de OpenAI (finales de oct. 2025) y la cobertura de medios despertaron interés académico y regulatorio; por eso parece que “ha crecido” —parte es aumento real de incidencias y parte es mayor detección y reporte.
3 Investigación que muestra respuestas inconsistentes: estudios y revisiones recientes (2024–2025) encontraron que muchos chatbots aún dan respuestas que son insuficientes, contradictorias o incluso dañinas ante mensajes suicidas o de crisis, lo que preocupa a clínicos y reguladores. Esto ha impulsado nuevas evaluaciones y herramientas para medir seguridad en contextos de salud mental.
4 Reacción regulatoria y legal: la aparición de demandas (familias que atribuyen rol de la IA en suicidios de menores), investigaciones regulatorias y decisiones de otras empresas (por ejemplo Character.AI anunciando restricciones de menores) muestran que la cuestión escaló rápido a esfera legal y política, lo que aumenta la cobertura y presión pública.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$690/mes
*LOS PRIMEROS 3 MESES, LUEGO $6470
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$530/mes
*LOS PRIMEROS 3 MESES, LUEGO $4190
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2025 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí