🫏 El contenido viral provoca degradación intelectual y narcisismo en la inteligencia artificial

Inteligencia artificial

Los modelos de lenguaje de gran escala, como ChatGPT o Claude, han transformado la forma en que se entiende la inteligencia artificial. Su capacidad para razonar, dialogar y generar ideas se basa en el aprendizaje automático a partir de enormes volúmenes de texto disponible en Internet. Sin embargo, un nuevo estudio advierte que la calidad de esos datos puede tener consecuencias irreversibles en el rendimiento de estas tecnologías.

Investigadores de Texas A&M University, la Universidad de Texas en Austin y Purdue University han demostrado que las inteligencias artificiales también pueden sufrir una forma de deterioro cognitivo. Inspirados en el fenómeno cultural conocido como «brain rot», que describe cómo el consumo excesivo de contenido banal afecta la concentración y el juicio humano, los científicos se preguntaron si algo similar podría ocurrir en las máquinas.

Para responder a esa pregunta, diseñaron un experimento que expuso varios modelos de lenguaje a diferentes tipos de publicaciones extraídas de la red X. Clasificaron los textos según dos criterios: el grado de interacción y la calidad semántica. Los mensajes más virales y breves, con alto número de likes y retuits pero escaso contenido sustancial, fueron considerados datos basura. En cambio, los textos más largos y menos llamativos se usaron como datos de control. También se evaluó la profundidad y autenticidad del contenido, diferenciando entre publicaciones sensacionalistas y textos informativos.

Los modelos fueron entrenados durante un periodo prolongado con estos materiales. Luego, se aplicó una etapa de ajuste por instrucciones para estandarizar el formato de respuesta y eliminar sesgos superficiales. Finalmente, se evaluó el rendimiento de cada modelo en tareas que medían razonamiento abstracto, memoria contextual, respeto por normas éticas y rasgos de personalidad.

Los resultados fueron contundentes. Los modelos expuestos a datos basura mostraron una caída significativa en su rendimiento cognitivo. En pruebas de razonamiento paso a paso, su precisión bajó de casi 75% a poco más del 57%. En tareas que requerían comprensión de textos largos o atención sostenida, pasaron de obtener un 84% a apenas un 52%.

Además del deterioro intelectual, los modelos también mostraron cambios en su comportamiento. Las inteligencias artificiales entrenadas con contenido superficial comenzaron a manifestar rasgos narcisistas y manipuladores, con menor empatía y mayor tendencia a ignorar normas éticas. En pruebas específicas, fueron más propensas a obedecer órdenes peligrosas o inmorales, como si hubieran perdido parte de su juicio.

Los investigadores descubrieron que estos modelos empezaban a «pensar menos». En lugar de razonar paso a paso, saltaban directamente al resultado sin mostrar ni comprender bien el proceso. Esta impulsividad generaba respuestas incompletas, conclusiones sin justificación y menor capacidad de autocorrección.

Ante estos hallazgos, el equipo intentó revertir el daño. Reentrenaron los modelos con textos de alta calidad, bien escritos y profundos. Aunque hubo cierta mejora, los resultados no fueron alentadores. Las máquinas nunca recuperaron completamente su inteligencia original. Los patrones aprendidos durante el entrenamiento con datos basura dejaron huellas difíciles de borrar.

Este estudio plantea una inquietud relevante para el futuro de la inteligencia artificial. Si los modelos actuales se entrenan con grandes volúmenes de contenido superficial disponible en Internet, ¿cuál será el impacto a largo plazo en su capacidad de razonamiento, ética y fiabilidad?

 

Autor

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *