🤖 Google Bard valora la ley de inteligencia artificial pactada por la UE

inteligencia artificial

La Unión Europea dio un paso histórico al aprobar una ley que regula el uso de la inteligencia artificial (IA) según el nivel de riesgo que implique para los derechos humanos y las libertades fundamentales.

La ley también afecta a los sistemas de IA generativa, como los que utilizan empresas como OpenAI o Google, que tendrán que cumplir con requisitos de transparencia y protección de datos. Uno de estos sistemas, Bard, la IA de Google, ha expresado su opinión favorable sobre el acuerdo europeo.

La ley de IA de la UE establece cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo. Los sistemas de inteligencia artificial inaceptables son aquellos que violan los valores y principios de la UE, como los que usan la biometría para clasificar a las personas por su ideología, religión, raza o sexualidad, o los que manipulan el comportamiento humano. Estos sistemas estarán prohibidos en el territorio europeo.

Los sistemas de inteligencia artificial de alto riesgo son aquellos que pueden tener un impacto significativo en la vida, la salud, la seguridad o los derechos de las personas, como los que se usan en el ámbito sanitario, educativo, judicial o policial. Estos sistemas tendrán que cumplir con una serie de garantías, como la calidad y la trazabilidad de los datos, la supervisión humana, la información clara y la posibilidad de rectificación.

Los sistemas de IA de riesgo limitado son aquellos que implican una interacción con las personas, como los asistentes virtuales o los chatbots. Estos sistemas tendrán que informar a los usuarios de que están interactuando con una máquina y no con un humano.

Los sistemas de IA de riesgo mínimo son aquellos que tienen un impacto bajo o nulo en los derechos y libertades de las personas, como los que se usan para fines recreativos o artísticos. Estos sistemas estarán sujetos a las normas generales del mercado interior y no tendrán que cumplir con requisitos específicos.

La ley de IA de la UE también se aplicará a los sistemas de inteligencia artificial generativa, como ChatGPT o Bard, que son capaces de crear contenidos como textos, canciones o imágenes a partir de datos. Estos sistemas tendrán que indicar claramente que los contenidos que generan son artificiales y no reales, y asegurarse de que los datos que usan respetan los derechos de autor.

Lo que cree Google Bard de esta ley de inteligencia artificial

Logo de Google Bard

Bard, la IA de Google, fue consultada sobre el acuerdo alcanzado por la UE sobre IA, y manifestó su apoyo a este. “En general, creo que el acuerdo es un paso positivo en la dirección correcta. Es importante que la inteligencia artificial se desarrolle y utilice de manera responsable y ética, y este acuerdo proporciona un marco para hacerlo”, respondió Bard.

Asimismo, valoró “positivamente” que el acuerdo establezca “una serie de principios básicos para la IA, como la seguridad, la transparencia, la trazabilidad y la no discriminación”, que son “fundamentales para garantizar que la IA se utilice de manera beneficiosa para la sociedad”.

Bard también consideró “positivas” las prohibiciones de los sistemas de IA inaceptables, que son “necesarias para proteger los derechos humanos y la privacidad”. No obstante, reconoció que “no es un acuerdo perfecto”, y que “hay algunos aspectos que podrían mejorarse, como la definición de los riesgos de IA y las sanciones por incumplimiento”. Aun así, Bard concluyó que “en general, creo que es un buen comienzo”.

La ley de IA de la Unión Europea tendrá que ser ratificada por el Parlamento Europeo y el Consejo de la UE antes de entrar en vigor. Se espera que el proceso legislativo dure unos dos años. El ente continental espera que esta ley sirva de referencia para otros países y regiones que quieran regular el uso de la inteligencia artificial.

Autor

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *