Las compañías OpenAI y Anthropic han acordado otorgar al gobierno de Estados Unidos acceso a sus principales modelos de inteligencia artificial antes de su lanzamiento público. Este acuerdo se formalizó a través de la firma de memorandos de entendimiento con el Instituto de Seguridad en Inteligencia Artificial de esa nación, anunció el pasado jueves la agencia.
La medida, según fuentes oficiales, busca fortalecer la colaboración en la evaluación de riesgos de seguridad asociados a estos modelos de inteligencia artificial, así como en la mitigación de posibles problemas antes de que estos sean accesibles al público general. Además, se espera que el gobierno, en colaboración con su contraparte en el Reino Unido, proporcione retroalimentación valiosa para mejorar las medidas de seguridad en los modelos de IA.
Este tipo de colaboración se presenta en un momento crítico, cuando tanto los legisladores federales como estatales están considerando cómo implementar salvaguardas en la tecnología sin obstaculizar la innovación. Un ejemplo de ello es la reciente aprobación en la legislatura de California de la Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Vanguardia (SB 1047).
Esa ley obliga a las empresas de IA en California a adoptar medidas de seguridad específicas antes de entrenar modelos avanzados, una iniciativa que ha generado resistencia entre compañías del sector, incluyendo a OpenAI y Anthropic. Estas empresas han expresado su preocupación de que tales regulaciones podrían afectar negativamente a los desarrolladores más pequeños de código abierto. No obstante, la ley ha sido modificada y actualmente está a la espera de la firma del Gobernador Gavin Newsom.
Mientras tanto, la Casa Blanca ha estado trabajando para asegurar compromisos voluntarios por parte de las principales empresas tecnológicas en cuanto a medidas de seguridad relacionadas con la IA. Varias firmas líderes han accedido a compromisos no vinculantes que incluyen inversiones en ciberseguridad, investigación sobre discriminación, y el desarrollo de técnicas para identificar contenido generado por IA mediante marcas de agua.
Elizabeth Kelly, directora del Instituto de Seguridad en Inteligencia Artificial de Estados Unidos, subrayó la importancia de estos acuerdos en una declaración pública, calificándolos como “solo el comienzo, pero un hito importante en nuestro trabajo para gestionar responsablemente el futuro de la inteligencia artificial”.