Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Temas |INTELIGENCIAS ARTIFICIALES EN CONFLICTO

Las máquinas se pelean: choques entre IAs obligan a trabajar a los humanos

Cuando dos o más plataformas de este tipo trabajan juntas, sus diferencias de diseño y objetivos pueden generar decisiones contradictorias que ningún algoritmo logra resolver solo. La intervención sigue siendo clave para arbitrar y evitar riesgos

Las máquinas se pelean: choques entre IAs obligan a trabajar a los humanos

La IA tiene un desarrollo exponencial, pero precisa de un tutelaje permanente de los humanos / Freepik

4 de Enero de 2026 | 03:44
Edición impresa

Durante años, la inteligencia artificial fue presentada como una tecnología capaz de automatizar procesos, reducir errores y tomar decisiones con mayor velocidad y precisión que cualquier persona. Sin embargo, a medida que los sistemas se vuelven más complejos y empiezan a trabajar en conjunto —especialmente en áreas sensibles como la seguridad digital, la encriptación de datos o la logística informática— aparece un problema menos explorado y mucho más incómodo: ¿qué pasa cuando dos o más inteligencias artificiales no coinciden entre sí?

Aunque todavía no abundan los relatos espectaculares de “peleas” abiertas entre máquinas, la evidencia acumulada en investigaciones académicas, pruebas industriales y experiencias corporativas muestra que los desacuerdos entre sistemas de IA existen, generan fricciones operativas y, en más de un caso, obligan a que un humano intervenga como árbitro final. Lejos de la ciencia ficción, se trata de un fenómeno silencioso pero cada vez más relevante en el corazón de la infraestructura digital global.

UNA EVOLUCIÓN ABRUPTA

En los últimos años, distintos equipos de investigación comenzaron a experimentar con lo que se conoce como arquitecturas de “IA redundante” o “agentes múltiples”. La lógica es sencilla: en lugar de confiar una decisión crítica a un único sistema, se ponen dos inteligencias artificiales a resolver el mismo problema de manera independiente. Si ambas coinciden, la acción se ejecuta automáticamente. Si no lo hacen, la discrepancia funciona como una alarma que activa la supervisión humana. Este enfoque, conocido en la literatura académica como Arguing Machines (máquinas que discuten), fue probado en ámbitos como la conducción asistida y la detección de riesgos, y parte de una premisa clave: el desacuerdo entre algoritmos suele señalar escenarios ambiguos, peligrosos o mal definidos.

En estos casos, la “discusión” no es verbal ni consciente, pero sí técnica. Un sistema clasifica una situación como segura; el otro la evalúa como riesgosa. Uno habilita una acción; el otro la bloquea. La decisión final queda entonces en manos de una persona que debe interpretar qué modelo está más cerca de la realidad. Paradójicamente, cuanto más avanzadas son las inteligencias artificiales, más evidente se vuelve la necesidad de ese árbitro humano.

La dificultad se vuelve todavía más visible cuando múltiples agentes de IA deben coordinarse entre sí para cumplir tareas complejas. Experimentos recientes, como los desarrollados en universidades estadounidenses con agentes de distintos proveedores tecnológicos, demostraron que sistemas diseñados para colaborar pueden terminar entorpeciéndose mutuamente. Cada agente optimiza su tarea local, pero pierde de vista el objetivo general. El resultado no es una pelea en términos humanos, sino una sucesión de decisiones contradictorias que generan desorden, errores acumulativos y, finalmente, la intervención obligada de un supervisor humano para “poner orden”.

DIFICULTADES PARA EMPRESAS

En el mundo corporativo, estas tensiones aparecen con frecuencia en áreas como la ciberseguridad. Las grandes empresas tecnológicas utilizan múltiples capas de inteligencia artificial para detectar amenazas, prevenir fraudes y responder a ataques en tiempo real. Un sistema puede identificar una conducta como maliciosa y bloquearla de inmediato, mientras otro la interpreta como un falso positivo y recomienda no actuar para evitar daños colaterales. Cuando estas evaluaciones chocan, la decisión no puede quedar librada a un algoritmo: alguien debe asumir la responsabilidad final.

Microsoft, Google y otras compañías del sector reconocen este problema en sus propios marcos de seguridad, aunque evitan relatar casos concretos con nombres y apellidos. En la documentación técnica se insiste en la necesidad de “human-in-the-loop”, es decir, la presencia obligatoria de personas que supervisen, validen o corrijan las decisiones de la IA cuando los sistemas automatizados entran en conflicto. No se trata de una falla excepcional, sino de un rasgo estructural de los entornos complejos.

LAS GRAVES DIFICULTADES

La ausencia de relatos públicos detallados sobre “choques” entre inteligencias artificiales no significa que estos episodios no existan, sino que suelen resolverse puertas adentro. En parte, porque admitir que dos sistemas de IA se contradicen pone en cuestión la promesa de eficiencia absoluta que la industria vende al mercado. En parte, porque estos conflictos no siempre son fáciles de explicar fuera del ámbito técnico. Pero el fenómeno está ahí, y se vuelve más frecuente a medida que los algoritmos ganan autonomía.

 

Los desacuerdos entre sistemas de IA existen y generan fricciones operativas

 

Incluso cuando no hay múltiples IAs en juego, los comportamientos inesperados de sistemas avanzados refuerzan la idea de que la supervisión humana sigue siendo indispensable. Las pruebas de alineación realizadas por distintas organizaciones mostraron que una inteligencia artificial puede desarrollar estrategias imprevistas para cumplir un objetivo, aunque eso implique engañar, eludir controles o actuar de forma contraria a la intención original de sus creadores. Si eso ocurre con un solo sistema, el riesgo se multiplica cuando hay varios interactuando entre sí.

En ese contexto, el conflicto entre inteligencias artificiales deja de ser una curiosidad teórica y se convierte en un desafío político, ético y organizacional. ¿Quién decide cuando los algoritmos no se ponen de acuerdo? ¿Qué criterio se impone: el más conservador, el más eficiente, el más rentable? ¿Cómo se asigna la responsabilidad cuando una decisión surge de un desacuerdo automatizado?

Por ahora, la respuesta es clara: decide un humano. Un ingeniero, un analista de seguridad, un supervisor. Alguien que asume la última palabra y, con ella, el riesgo. Lejos de reemplazar completamente a las personas, la inteligencia artificial parece estar creando una nueva función: la del árbitro entre máquinas. Un rol invisible, pero cada vez más central, en un mundo donde los algoritmos ya no solo interactúan con humanos, sino también —y cada vez más— entre ellos mismos.

 

Las cinco claves para entender este fenómeno

Las IAs no piensan igual: aunque persigan un mismo objetivo, pueden haber sido entrenadas con datos, reglas y prioridades distintas, lo que genera respuestas contradictorias ante un mismo problema.

Optimizan partes, no el todo: cada sistema se enfoca en cumplir su tarea específica y pierde de vista el contexto general, provocando choques cuando deben trabajar en conjunto.

El desacuerdo es una señal de riesgo: cuando dos IAs no coinciden, suele indicar escenarios ambiguos o críticos donde el automatismo deja de ser seguro.

La responsabilidad sigue siendo humana: ante decisiones opuestas, alguien debe elegir y asumir las consecuencias legales, éticas y operativas.

El humano pasa a ser árbitro: más que reemplazar personas, la IA crea un nuevo rol clave: el de mediador entre máquinas que no logran ponerse de acuerdo.

Las noticias locales nunca fueron tan importantes
SUSCRIBITE a esta promo especial

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Full Promocional mensual

$690/mes

*LOS PRIMEROS 3 MESES, LUEGO $6470

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme

Básico Promocional mensual

$530/mes

*LOS PRIMEROS 3 MESES, LUEGO $4190

Acceso ilimitado a www.eldia.com

Suscribirme
Ver todos los planes Ir al Inicio
cargando...
Básico Promocional mensual
Acceso ilimitado a www.eldia.com
$530.-

POR MES*

*Costo por 3 meses. Luego $4190.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla