La IA tiene un desarrollo exponencial, pero precisa de un tutelaje permanente de los humanos / Freepik
El escándalo del Senado: un club de La Plata echó a uno de los detenidos acusado de abuso
No hay "Noche del León": Estudiantes confirmó la noticia tras la apretada agenda deportiva
"No se sabe": Christian Petersen recibió el alta, rompió el silencio y alimentó las especulaciones
Lluvia en La Plata: a qué hora se esperan las precipitaciones
La Plata y otra jornada de penuria para los vecinos que padecieron cortes de luz y agua
El Cartonazo quedó vacante y acumula un pozo de $4.000.000: cuándo sale la tarjeta
Monotributo 2026: fecha límite para la recategorización y cómo hacer el trámite
Elba Marcovecchio denunció a Luzu TV y Diego Leuco por “difusión de imágenes” junto a Jorge Lanata
El Gobierno respalda a Trump en su plan en Venezuela y desestima el llamado a elecciones
“Tengo 24 cm de razones”: el fuerte descargo de Wanda Nara con guiño a Martín Migueles
Bolsonaro sufrió una convulsión y un traumatismo craneal en la cárcel de Brasilia
Ian Lucas habló tras los rumores con Evangelina Anderson: “Lo que ven es lo que soy”
¿Se cobra entrada para ingresar a la República de los Niños de La Plata?
Apareció "Negro", el perro del Cuartel de Bomberos La Plata que era buscado hace dos días
Fátima Florez vs Flor Peña por la boletería en Mar del Plata: “No necesitamos comprar nada”
Estudiantes vs Ituzaingó por Copa Argentina: confirmaron día, horario y sede
Gimnasia vs Camioneros por Copa Argentina: confirmaron la fecha
Messi, íntimo en Miami: “A veces tengo que soy más raro que la...”
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Cuando dos o más plataformas de este tipo trabajan juntas, sus diferencias de diseño y objetivos pueden generar decisiones contradictorias que ningún algoritmo logra resolver solo. La intervención sigue siendo clave para arbitrar y evitar riesgos
La IA tiene un desarrollo exponencial, pero precisa de un tutelaje permanente de los humanos / Freepik
Durante años, la inteligencia artificial fue presentada como una tecnología capaz de automatizar procesos, reducir errores y tomar decisiones con mayor velocidad y precisión que cualquier persona. Sin embargo, a medida que los sistemas se vuelven más complejos y empiezan a trabajar en conjunto —especialmente en áreas sensibles como la seguridad digital, la encriptación de datos o la logística informática— aparece un problema menos explorado y mucho más incómodo: ¿qué pasa cuando dos o más inteligencias artificiales no coinciden entre sí?
Aunque todavía no abundan los relatos espectaculares de “peleas” abiertas entre máquinas, la evidencia acumulada en investigaciones académicas, pruebas industriales y experiencias corporativas muestra que los desacuerdos entre sistemas de IA existen, generan fricciones operativas y, en más de un caso, obligan a que un humano intervenga como árbitro final. Lejos de la ciencia ficción, se trata de un fenómeno silencioso pero cada vez más relevante en el corazón de la infraestructura digital global.
En los últimos años, distintos equipos de investigación comenzaron a experimentar con lo que se conoce como arquitecturas de “IA redundante” o “agentes múltiples”. La lógica es sencilla: en lugar de confiar una decisión crítica a un único sistema, se ponen dos inteligencias artificiales a resolver el mismo problema de manera independiente. Si ambas coinciden, la acción se ejecuta automáticamente. Si no lo hacen, la discrepancia funciona como una alarma que activa la supervisión humana. Este enfoque, conocido en la literatura académica como Arguing Machines (máquinas que discuten), fue probado en ámbitos como la conducción asistida y la detección de riesgos, y parte de una premisa clave: el desacuerdo entre algoritmos suele señalar escenarios ambiguos, peligrosos o mal definidos.
En estos casos, la “discusión” no es verbal ni consciente, pero sí técnica. Un sistema clasifica una situación como segura; el otro la evalúa como riesgosa. Uno habilita una acción; el otro la bloquea. La decisión final queda entonces en manos de una persona que debe interpretar qué modelo está más cerca de la realidad. Paradójicamente, cuanto más avanzadas son las inteligencias artificiales, más evidente se vuelve la necesidad de ese árbitro humano.
La dificultad se vuelve todavía más visible cuando múltiples agentes de IA deben coordinarse entre sí para cumplir tareas complejas. Experimentos recientes, como los desarrollados en universidades estadounidenses con agentes de distintos proveedores tecnológicos, demostraron que sistemas diseñados para colaborar pueden terminar entorpeciéndose mutuamente. Cada agente optimiza su tarea local, pero pierde de vista el objetivo general. El resultado no es una pelea en términos humanos, sino una sucesión de decisiones contradictorias que generan desorden, errores acumulativos y, finalmente, la intervención obligada de un supervisor humano para “poner orden”.
En el mundo corporativo, estas tensiones aparecen con frecuencia en áreas como la ciberseguridad. Las grandes empresas tecnológicas utilizan múltiples capas de inteligencia artificial para detectar amenazas, prevenir fraudes y responder a ataques en tiempo real. Un sistema puede identificar una conducta como maliciosa y bloquearla de inmediato, mientras otro la interpreta como un falso positivo y recomienda no actuar para evitar daños colaterales. Cuando estas evaluaciones chocan, la decisión no puede quedar librada a un algoritmo: alguien debe asumir la responsabilidad final.
Microsoft, Google y otras compañías del sector reconocen este problema en sus propios marcos de seguridad, aunque evitan relatar casos concretos con nombres y apellidos. En la documentación técnica se insiste en la necesidad de “human-in-the-loop”, es decir, la presencia obligatoria de personas que supervisen, validen o corrijan las decisiones de la IA cuando los sistemas automatizados entran en conflicto. No se trata de una falla excepcional, sino de un rasgo estructural de los entornos complejos.
La ausencia de relatos públicos detallados sobre “choques” entre inteligencias artificiales no significa que estos episodios no existan, sino que suelen resolverse puertas adentro. En parte, porque admitir que dos sistemas de IA se contradicen pone en cuestión la promesa de eficiencia absoluta que la industria vende al mercado. En parte, porque estos conflictos no siempre son fáciles de explicar fuera del ámbito técnico. Pero el fenómeno está ahí, y se vuelve más frecuente a medida que los algoritmos ganan autonomía.
Los desacuerdos entre sistemas de IA existen y generan fricciones operativas
Incluso cuando no hay múltiples IAs en juego, los comportamientos inesperados de sistemas avanzados refuerzan la idea de que la supervisión humana sigue siendo indispensable. Las pruebas de alineación realizadas por distintas organizaciones mostraron que una inteligencia artificial puede desarrollar estrategias imprevistas para cumplir un objetivo, aunque eso implique engañar, eludir controles o actuar de forma contraria a la intención original de sus creadores. Si eso ocurre con un solo sistema, el riesgo se multiplica cuando hay varios interactuando entre sí.
En ese contexto, el conflicto entre inteligencias artificiales deja de ser una curiosidad teórica y se convierte en un desafío político, ético y organizacional. ¿Quién decide cuando los algoritmos no se ponen de acuerdo? ¿Qué criterio se impone: el más conservador, el más eficiente, el más rentable? ¿Cómo se asigna la responsabilidad cuando una decisión surge de un desacuerdo automatizado?
Por ahora, la respuesta es clara: decide un humano. Un ingeniero, un analista de seguridad, un supervisor. Alguien que asume la última palabra y, con ella, el riesgo. Lejos de reemplazar completamente a las personas, la inteligencia artificial parece estar creando una nueva función: la del árbitro entre máquinas. Un rol invisible, pero cada vez más central, en un mundo donde los algoritmos ya no solo interactúan con humanos, sino también —y cada vez más— entre ellos mismos.
❑ Las IAs no piensan igual: aunque persigan un mismo objetivo, pueden haber sido entrenadas con datos, reglas y prioridades distintas, lo que genera respuestas contradictorias ante un mismo problema.
❑ Optimizan partes, no el todo: cada sistema se enfoca en cumplir su tarea específica y pierde de vista el contexto general, provocando choques cuando deben trabajar en conjunto.
❑ El desacuerdo es una señal de riesgo: cuando dos IAs no coinciden, suele indicar escenarios ambiguos o críticos donde el automatismo deja de ser seguro.
❑ La responsabilidad sigue siendo humana: ante decisiones opuestas, alguien debe elegir y asumir las consecuencias legales, éticas y operativas.
❑ El humano pasa a ser árbitro: más que reemplazar personas, la IA crea un nuevo rol clave: el de mediador entre máquinas que no logran ponerse de acuerdo.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$690/mes
*LOS PRIMEROS 3 MESES, LUEGO $6470
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$530/mes
*LOS PRIMEROS 3 MESES, LUEGO $4190
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2026 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí