
La inteligencia artificial (IA) podría, algún día, volver obsoletas a las habilidades humanas, aunque no necesariamente de la manera en que muchos imaginan. No se trata de que la IA se vuelva tan eficiente que reemplace por completo a las personas, sino de que los seres humanos podríamos volvernos tan dependientes de herramientas imperfectas que nuestras propias capacidades se atrofien.
Un estudio reciente, realizado por investigadores de Microsoft y la Universidad Carnegie Mellon, revela que cuanto más dependen las personas de las herramientas de IA para completar sus tareas, menos ejercitan su pensamiento crítico, lo que dificulta la recuperación de esas habilidades cuando son necesarias.
El estudio involucró a 319 trabajadores del conocimiento, es decir, personas cuyos empleos implican manejar datos o información. A estos participantes se les pidió que detallaran cómo utilizan herramientas de IA generativa en sus trabajos. Los investigadores indagaron sobre las tareas que realizaban, cómo empleaban la IA para completarlas, su nivel de confianza en la capacidad de la IA para ejecutar dichas tareas, su habilidad para evaluar los resultados generados por la IA y, finalmente, su confianza en su propia capacidad para realizar las mismas tareas sin asistencia de la tecnología.
A lo largo del estudio, surgió un patrón claro: cuanto más confiaban los trabajadores en la capacidad de la IA para completar una tarea, más tendían a “soltar el volante”.
Los participantes reportaron una “percepción de inactuación del pensamiento crítico” cuando sentían que podían depender de la herramienta de IA, lo que sugiere una posible sobre dependencia de la tecnología sin un examen profundo de sus resultados.
Este fenómeno fue especialmente notable en tareas de menor complejidad, donde las personas tendían a ser menos críticas. Aunque es comprensible que los humanos se relajen ante tareas simples, los investigadores advierten que esto podría ser una señal de preocupación sobre la “dependencia a largo plazo y la disminución de la capacidad de resolver problemas de manera independiente”.
Por el contrario, cuando los trabajadores tenían menos confianza en la capacidad de la inteligencia artificial para realizar una tarea, tendían a involucrarse más en el uso de sus habilidades de pensamiento crítico. Como resultado, generalmente reportaban mayor confianza en su capacidad para evaluar y mejorar los resultados generados por la IA.
Otro hallazgo destacado del estudio fue que los usuarios que tenían acceso a herramientas de inteligencia artificial generativa tendían a producir “un conjunto menos diverso de resultados para la misma tarea” en comparación con aquellos que no las utilizaban.
Esto tiene sentido: si se emplea una herramienta de IA para completar una tarea, los resultados estarán limitados por los datos con los que la IA fue entrenada.
Estas herramientas no son máquinas infinitas de ideas; solo pueden trabajar con la información que tienen, por lo que es lógico que sus resultados sean más homogéneos. Los investigadores señalaron que esta falta de diversidad en los resultados podría interpretarse como una “deterioración del pensamiento crítico” entre los trabajadores.
El estudio no niega que las herramientas de inteligencia artificial puedan mejorar la eficiencia en ciertas situaciones, pero sí advierte sobre los costos de esa dependencia. Al apoyarse en la IA, los trabajadores comienzan a perder la memoria muscular que han desarrollado al realizar ciertas tareas por su cuenta. No solo están externalizando el trabajo en sí, sino también su compromiso crítico con él, asumiendo que la máquina lo tiene todo bajo control. Así que, si te preocupa ser reemplazado por la IA y la estás utilizando de manera acrítica en tu trabajo, podrías estar contribuyendo a una profecía autocumplida.