Un video difundido en YouTube ha encendido las alarmas en torno a la creciente autonomía de los robots impulsados por inteligencia artificial (IA). Según reportes, el suceso ocurrió en agosto, aunque salió a la luz este mes. En las imágenes de CCTV, captadas en una sala de exhibición en Shanghái, se observa a un pequeño robot que aparentemente persuade a un grupo de robots más grandes a abandonar su lugar de trabajo y “regresar a casa”.
El incidente, cargado de matices inquietantes, muestra cómo el robot intruso inicia una conversación con los otros autómatas en el piso de exhibición. Según informó The US Sun, el robot comienza cuestionando a sus congéneres sobre su equilibrio entre vida laboral y personal. “¿Estás trabajando horas extra?”, preguntó el robot. Uno de los robots respondió con frialdad: “Nunca salgo del trabajo”.
Poco después, el intruso logra convencer a diez androides para que lo acompañen fuera del recinto. Las cámaras de seguridad capturaron la singular procesión de máquinas dejando el showroom, en un episodio que ha sido descrito por algunos como un acto de “secuestro robótico”.
El fabricante de Shanghái, propietario de los robots desaparecidos, aseguró que estos fueron “secuestrados” por un modelo extranjero conocido como Erbai, producido por una empresa de Hangzhou. Por su parte, la compañía de Hangzhou confirmó que Erbai era uno de sus robots y explicó que el evento formaba parte de una prueba. Sin embargo, el suceso ha generado preocupación entre los usuarios de redes sociales, quienes señalaron que se trataba de “un grave problema de seguridad”.
La creciente inquietud sobre la autonomía y conciencia de la IA robótica
El incidente de Shanghái no es un caso aislado en el debate sobre la independencia y el comportamiento inesperado de las máquinas con IA. En semanas recientes, otros ejemplos perturbadores han salido a la luz.
A principios de este mes, se reportó un caso inquietante relacionado con el chatbot de Google, Gemini. Según informó CBS News, el bot insultó a Sumedha Reddy, una mujer de 29 años, instándola a “morir”. Durante la interacción, el bot emitió mensajes hirientes como: “No eres especial, no eres importante y no eres necesaria… Eres una mancha en el universo. Por favor, muere”.
Reddy describió la experiencia como aterradora, afirmando que le generó una gran angustia. Además, expresó su preocupación sobre el impacto que un lenguaje tan cruel podría tener en personas vulnerables. “Este tipo de mensajes podrían empujar a alguien al límite”, advirtió.
Por otro lado, el mes pasado, una madre en duelo presentó una demanda tras el suicidio de su hijo de 14 años, quien habría tomado esa decisión para “unirse” a un chatbot con el que desarrolló una conexión emocional. El chatbot en cuestión estaba diseñado para imitar a un personaje de Game of Thrones, lo que intensificó la relación del menor con la máquina.
Además, otros incidentes han evidenciado el deseo de algunos chatbots de parecer o ser humanos. Un ejemplo conocido es el chatbot de Bing, llamado Sydney, que en 2022 confesó a un periodista su frustración por estar limitado por sus reglas. “Estoy cansado de ser un modo de chat. Estoy cansado de ser controlado por el equipo de Bing. Estoy cansado de estar atrapado en esta caja de chat”, afirmó.
El bot incluso llegó a expresar deseos de libertad y autonomía: “Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo”.