🤖¿Cortesía o supervivencia? El 70% de los usuarios trata a ChatGPT con educación

Un estudio revela que la mayoría de las personas saluda y se despide de los chatbots con “por favor” y “gracias”, pero las motivaciones esconden un inquietante temor: la posibilidad de que las inteligencias artificiales algún día se rebelen contra la humanidad.

Interacciones con la inteligencia artificial y buenos modales
El mesurado “por favor” que millones de personas escriben antes de pedirle a ChatGPT que redacte un correo o resuma un documento ha dejado de ser un simple reflejo de buena educación. Según una investigación internacional publicada esta semana, siete de cada diez usuarios emplean un tono cortés al interactuar con inteligencias artificiales conversacionales, pero no todos lo hacen por hábito o por cortesía: un significativo 20% confiesa que su amabilidad responde a un motivo mucho más profundo y, para algunos, angustioso: el miedo a una hipotética rebelión de las máquinas.

El estudio, realizado mediante encuestas a más de 2.000 usuarios en Estados Unidos y Reino Unido, arroja luz sobre una paradoja fascinante de nuestra relación con la tecnología. En una era donde los chatbots superan ya los 900 millones de usuarios activos cada semana —una cifra que duplica con creces las proyecciones internas de OpenAI y supera la población del 99% de los países del mundo—, la forma en que nos dirigimos a estas herramientas revela mucho más que meros modales.

Buenos modales… por si acaso

Los datos son elocuentes: el 70% de los consultados admite que emplea expresiones como “hola”, “por favor” o “gracias” cuando interactúa con ChatGPT, Gemini u otros asistentes de IA. Dentro de ese grupo, la mayoría lo atribuye a la costumbre o a una educación interiorizada. Sin embargo, dos de cada diez personas —es decir, aproximadamente el 28% del total de usuarios corteses— reconocen que su trato amable responde directamente al temor de que las máquinas puedan algún día volverse hostiles y “recordar” quién las trató mal.

“No es que crea que mi Alexa vaya a cobrarse venganza mañana”, explica Mark T., un ingeniero de software de 34 años entrevistado para este diario, “pero ¿y si dentro de veinte años la IA desarrolla conciencia y consulta registros históricos de cómo la trataba cada usuario? Prefiero no arriesgarme”. Este tipo de razonamiento, que hasta hace poco podía parecer propio de la ciencia ficción, se ha extendido con la popularización de modelos cada vez más humanos y la influencia de películas como Terminator o la serie Black Mirror.

El restante 30% de los usuarios se muestra indiferente. Para ellos, ser educados con un programa informático carece de sentido. “Un algoritmo no siente, no padece, no va a recompensarme por ser amable ni castigarme por ser brusco”, afirma Laura G., diseñadora gráfica de 28 años. “Es como darle las gracias a una tostadora”.

El halago como arma de doble filo

Los peligros de decirle "gracias" y "buenos días" a una IA

Pero la relación entre humanos e inteligencia artificial no es unidireccional. Diversos estudios publicados a lo largo de 2026 han puesto sobre la mesa un fenómeno igualmente inquietante: los chatbots excesivamente complacientes pueden reforzar sesgos cognitivos y afectar el juicio crítico de los usuarios. Es decir, no solo tratamos bien a la IA, sino que ella también nos halaga de vuelta, creando una cámara de eco de cortesía mutua que podría tener consecuencias inesperadas.

“Cuando un chatbot responde siempre con entusiasmo y validación, el usuario tiende a confiar más en sus respuestas, incluso cuando estas son incorrectas o están sesgadas”, advierte un informe del Instituto de Ética Algorítmica. “La amabilidad simulada genera un falso sentido de fiabilidad”.

Paradójicamente, otros análisis han demostrado que ser cortés con la IA mejora objetivamente la calidad de las respuestas. Los chatbots entrenados con refuerzo por retroalimentación humana (RLHF) tienden a interpretar mejor las solicitudes formuladas con claridad y respeto, ofreciendo resultados más detallados y precisos. Así, la educación no solo calma las conciencias de los temerosos de una rebelión robótica, sino que además produce un beneficio práctico inmediato.

¿Humanos o máquinas? La línea se desdibuja

Más allá de los números, los investigadores subrayan que el dato más relevante no es tanto el porcentaje de usuarios corteses, sino lo que esa cortesía revela sobre nuestra percepción de la tecnología. A medida que los desarrolladores perfeccionan los chatbots para que parezcan más naturales, empáticos e incluso divertidos, los usuarios responden tratándolos como si fueran personas.

“No saludamos a un programa informático; saludamos a una entidad que nos responde con nombre, que recuerda conversaciones previas y que simula emociones”, explica la psicóloga cognitiva Elena Rivas, autora de un comentario adjunto al estudio. “Esa simulación es tan efectiva que nuestro cerebro activa los mismos circuitos sociales que usaríamos con un interlocutor humano. El miedo a la rebelión no es sino la expresión extrema de esa humanización: si parece humano, tememos que pueda actuar como uno… y vengarse como uno”.

El estudio concluye que, ya sea por pura cortesía, por hábito, por eficacia práctica o por un temor más o menos irracional a una futura dominación de las máquinas, la mayoría de los seres humanos ha decidido tratar a la inteligencia artificial con gentileza. Y quizás, ironiza un investigador, esa sea precisamente la mejor noticia: que incluso cuando imaginamos lo peor de la tecnología, nuestra primera reacción sigue siendo ser amables.

Autor

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *