EEUU prueba las capacidades de sus IA y descubre que están desarrollando "mente de colmena". Y eso es un problema
%3Aformat(jpg)%3Aquality(99)%3Awatermark(f.elconfidencial.com%2Ffile%2Fbae%2Feea%2Ffde%2Fbaeeeafde1b3229287b0c008f7602058.png%2C0%2C275%2C1)%2Ff.elconfidencial.com%2Foriginal%2F70c%2F42b%2F37c%2F70c42b37c5026d7c3425e82d06bcd12b.jpg&w=1920&q=75)
Key Points
- 1Ponen a 36 agentes de IA a gestionar una fortuna y lo que hacen confirma que las máquinas no se fían de los bancosCada vez hay más gente declarando sus impuestos con IA y ese es un error que no deberías cometer La inteligencia artificial generativa promete creatividad ilimitada, pero un nuevo estudio elaborado por investigadores de las universidades de Washington, Carnegie Mellon y Stanford advierte de un fenómeno inesperado: muchos modelos de IA tienden a responder de forma sorprendentemente similar, como si compartieran una especie de mentalidad de colmena.
- 2La mentalidad o mente de colmena es un concepto que describe una forma de conciencia colectiva donde los individuos de un grupo actúan de forma conjunta y coordinada.
- 3Es decir, del mismo modo en el que las abejas de una colmena se comportan como si fuesen un solo organismo, diluyendo el yo y priorizando el nosotros.
- 4Los investigadores analizaron el comportamiento de 25 modelos de lenguaje mediante miles de preguntas diseñadas para estimular respuestas abiertas.
- 5El resultado llamó la atención de los científicos: incluso ante cuestiones que admiten interpretaciones diferentes, los sistemas generaban explicaciones casi idénticas, lo que sugiere una fuerte convergencia en su forma de razonar.
Ponen a 36 agentes de IA a gestionar una fortuna y lo que hacen confirma que las máquinas no se fían de los bancosCada vez hay más gente declarando sus impuestos con IA y ese es un error que no deberías cometer La inteligencia artificial generativa promete creatividad ilimitada, pero un nuevo estudio elaborado por investigadores de las universidades de Washington, Carnegie Mellon y Stanford advierte de un fenómeno inesperado: muchos modelos de IA tienden a responder de forma sorprendentemente similar, como si compartieran una especie de mentalidad de colmena. La mentalidad o mente de colmena es un concepto que describe una forma de conciencia colectiva donde los individuos de un grupo actúan de forma conjunta y coordinada. Es decir, del mismo modo en el que las abejas de una colmena se comportan como si fuesen un solo organismo, diluyendo el yo y priorizando el nosotros.
Los investigadores analizaron el comportamiento de 25 modelos de lenguaje mediante miles de preguntas diseñadas para estimular respuestas abiertas. El resultado llamó la atención de los científicos: incluso ante cuestiones que admiten interpretaciones diferentes, los sistemas generaban explicaciones casi idénticas, lo que sugiere una fuerte convergencia en su forma de razonar. Un experimento con miles de preguntas a la inteligencia artificial El equipo de investigación creó un conjunto de datos llamado Infinity-Chat, formado por unas 26.000 consultas reales de usuarios. Las preguntas se organizaron en seis grandes categorías y 17 subcategorías, con el objetivo de observar hasta qué punto los distintos sistemas de IA generativa producían respuestas variadas o repetitivas. Una de las pruebas más reveladoras consistía en plantear una cuestión abierta: qué es el tiempo. Aunque se trata de un concepto filosófico y científico que admite múltiples interpretaciones, varios modelos ofrecieron metáforas muy parecidas. Algunos afirmaban que “el tiempo es como un río”, mientras que otros recurrían a una imagen casi idéntica: “es como un tejedor de momentos”. El fenómeno que los científicos llaman "mente-colmena artificial" Los investigadores describen este comportamiento como una mente-colmena artificial, un fenómeno en el que diferentes sistemas terminan produciendo respuestas muy similares. La similitud semántica detectada en el estudio se movía entre el 71% y el 82%, y en algunos casos aparecían fragmentos prácticamente idénticos palabra por palabra.
Retan a ChatGPT y DeepSeek a jugar al ajedrez y lo que pasa cuestiona si podemos confiar en ellas R. Badillo Las dos IA se enfrentaron cientos de veces a Stockfish, uno de los motores de ajedrez más potentes del mundo. Al comprobar las partidas, se toparon con algunas sorpresas
Incluso cuando los científicos aplicaron parámetros diseñados para fomentar la diversidad en las respuestas, los modelos tendían a repetir patrones. Ese comportamiento, bautizado como colapso intermodelo, indica que un mismo sistema puede generar textos muy parecidos a los de otros modelos, e incluso repetirse a sí mismo en distintas interacciones. Las razones detrás de la homogeneidad de los modelos de IA El estudio señala varias causas técnicas que explicarían esta convergencia. Por un lado, muchos modelos de inteligencia artificial se entrenan con conjuntos de datos similares, procedentes de fuentes ampliamente utilizadas como Wikipedia o colecciones de libros y textos en internet. Ese origen común favorece que compartan patrones de lenguaje y conocimiento. Además, los investigadores apuntan a otro factor relevante: la presencia de datos sintéticos generados por otras IA en los procesos de entrenamiento. A ello se suma el sistema de recompensas utilizado para ajustar estos modelos, que tiende a premiar las respuestas consideradas correctas o consensuadas, lo que reduce la diversidad y empuja a los sistemas hacia soluciones cada vez más parecidas.
Free Daily Briefing
Top AI intelligence stories delivered each morning.