

archivo
Renuevan el alerta NARANJA por tormentas en La Plata y la Región: ¿a qué hora llega la lluvia?
El peronismo, la enseñanza de Napoleón y la crisis que sacude la campaña libertaria
Videos y fotos.- En un emotivo acto, se inauguró la nueva sede y el Polideportivo Club Tricolores
Revuelo en un colegio católico de La Plata por el precio de la cuota
Rezo por vos: Daniela Celis se sumó a la peregrinación a Luján para pedir por Thiago
La fe de El Barba: el DT Pincha participó de la caminata a Luján
Algunas zonas de La Plata estuvieron con cortes de luz: qué pasó
Las ofertas de trabajo en La Plata: GRATIS, el listado con los empleos que se publican en EL DIA
Con la elección de la embajadora, sigue la Fiesta Nacional del Inmigrante en Berisso
VIDEO. Una multitud caminó hasta Luján en otra histórica procesión
El problema de Argentina es el sobreendeudamiento más que el déficit fiscal
VIDEO.- Milei tuvo que levantar su recorrida en Santa Fe en medio de empujones, insultos y huevazos
Los Tilos se impuso ante San Luis y festejó en otra edición del clásico del rugby en La Plata
Chau veranito: tras la lluvia, anticipan una "bomba de frío" que barrerá el calor
Plaza Moreno, escenario de una nueva edición de Sabores Bonaerenses
VIDEO.- La bronca de Colapinto, que espera sanciones: "Estoy caliente, me molestaron mucho"
“Apenas toma agua”: la huelga de hambre de Morena Rial en la cárcel de Magdalena
"Tierras raras" a 300 kilómetros de La Plata: la UNLP estudia minerales estratégicos en la Provincia
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
archivo
Los modelos generativos de IA, ChatGPT, Google’s Bard y Midjourney, están codificando prejuicios y estereotipos negativos en sus usuarios, además de generar y difundir masivamente información aparentemente precisa pero sin sentido, alerta un estudio publicado en la revista ‘Science’.
Los autores alertan de que los grupos marginados se ven afectados de forma desproporcionada, y los niños corren un riesgo especial.
Además, recuerdan que la fabricación masiva tiene el potencial de influir en las creencias humanas a medida que los modelos que la impulsan se hacen cada vez más comunes, poblando Internet.
No sólo la gente obtiene información de la red, sino que gran parte del material de entrenamiento primario utilizado por los modelos de IA también procede de ahí. En otras palabras, se desarrolla un bucle de retroalimentación continua en el que los prejuicios y los sinsentidos se repiten y aceptan una y otra vez.
El artículo, del que es coautor Abeba Birhane, profesor adjunto de la Facultad de Informática y Estadística de Trinity (Irlanda), que trabaja con el Complex Software Lab de Trinity, y Senior Fellow in Trustworthy AI en la Fundación Mozilla, invita a la reflexión y hace un llamamiento a psicólogos y expertos en aprendizaje automático para que colaboren sin demora en la evaluación de la magnitud del problema y la búsqueda de soluciones.
Según comenta el profesor Birhane, “las personas comunican habitualmente su incertidumbre mediante frases como ‘creo’, retrasos en las respuestas, correcciones y disfluencias en el habla. En cambio, los modelos generativos dan respuestas seguras y fluidas, sin representaciones de la incertidumbre ni capacidad para comunicar su ausencia”.
LE PUEDE INTERESAR
Advierten por el impacto del extractivismo del litio
“Como resultado, esto puede causar una mayor distorsión en comparación con las entradas humanas y llevar a la gente a aceptar las respuestas como objetivamente exactas -prosigue-. Estos problemas se ven exacerbados por los intereses financieros y de responsabilidad civil que incentivan a las empresas a antropomorfizar los modelos generativos como si fueran inteligentes, sensibles, empáticos o incluso infantiles”.
Uno de los ejemplos que ofrece la Perspectiva se centra en cómo las regularidades estadísticas de un modelo asignaban a los acusados negros puntuaciones de mayor riesgo. Los jueces de los tribunales, que aprendieron los patrones, pueden entonces cambiar sus prácticas de imposición de penas para ajustarse a las predicciones de los algoritmos.
Este mecanismo básico de aprendizaje estadístico podría llevar a un juez a creer que las personas de raza negra tienen más probabilidades de reincidir, incluso aunque se impida el uso del sistema mediante normativas como las adoptadas recientemente en California.
Especialmente preocupante es el hecho de que no es fácil deshacerse de los prejuicios o de la información inventada una vez que ha sido aceptada por un individuo.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$690/mes
*LOS PRIMEROS 3 MESES, LUEGO $6470
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$530/mes
*LOS PRIMEROS 3 MESES, LUEGO $4190
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2025 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí