Por un lado nos meten la IA por las orejas en Windows 11 para trabajar o estudiar, pero por otro dicen que solo es entretenimiento. ¿En qué quedamos?
A medida que cada vez más gente usa la inteligencia artificial generativa, y con mayor frecuencia… salen a reducir las alucinaciones, las limitaciones y los fallos de la IA. Las empresas quieren cubrirse legalmente las espaldas, por eso estos días han salido a debate los curiosos términos de uso de Microsoft Copilot, en donde se define como “un producto de entretenimiento”. Espera un momento…
Desde el primer día, nos han vendido la IA como una revolución que va cambiar nuestras vidas, especialmente en el ámbito laboral. Microsoft publicita Copilot en Windows 11 como una herramienta de productividad para trabajar o estudiar.
Sin embargo, los términos de uso lo definen como un producto de entretenimiento que no debes usar para cosas importantes. Si lo haces es “bajo tu propia responsabilidad”. ¿Qué está pasando aquí?
Las condiciones de uso de Copilot
La última vez que se actualizaron los términos de uso de Copilot fue en octubre del año pasado. Pero como es una cosa que nadie lee, hoy ha salido a la luz esta curiosa frase: “Copilot es solo para fines de entretenimiento. Puede cometer errores y es posible que no funcione según lo previsto. No confíes en Copilot para obtener consejos importantes. Usa Copilot bajo tu propio riesgo.”.
El documento recalca que estas condiciones son “para las apps de Copilot en tu ordenador o dispositivo móvil, así como para el servicio Copilot que ofrecemos en copilot.microsoft.com, copilot.com y copilot.ai. También las conversaciones que mantengas con Copilot a través de otras aplicaciones y sitios web de Microsoft”.
Aclara, eso sí, que estas condiciones no se aplican a las aplicaciones o servicios de Microsoft 365 Copilot.
Dejando fuera Microsoft 365 Copilot, Microsoft publicita Copilot para Windows 11 o la app para móvil como una herramienta de productividad válida para trabajar o estudiar. Con ella puedes hacer resúmenes de reuniones, redactar emails para el trabajo, resumir informes, traducir, crear currículos, gráficas, programación, etc.
Eso son tareas importantes profesionales, con funciones creadas específicamente para ellas. Entonces, ¿por qué Microsoft dice que Copilot tiene solos fines de entretenimiento, y si lo usas para otra cosa que no sea divertirte, es responsabilidad tuya?
Quizá sea una imposición del departamento legal de Microsoft, pero choca frontalmente con la publicidad de Copilot, y sus supuestos usos. Por otro lado, estos términos dejan completamente desprotegidos a los usuarios: te venden Copilot como herramienta productiva para estudiar o trabajar, pero si la usas para otra cosa que no sea entretenimiento, no se hacen responsable de los resultados.
Así que ya sabes, Copilot es solo para divertirte y echarte unas risas. Un poco decepcionante, después de cuatro años de IA. ¿No iba a cambiar el mundo?
