Avatar

Sergio Ramos

29 de agosto de 2024

En California avanza la ley para regular la IA enfocada en la seguridad

La Asamblea y el Senado del Estado de California aprobaron esta semana el polémico proyecto de ley sobre la seguridad de la IA, conocido como SB 1047, que de ser aprobado por el gobernador Gavin Newsom se convertiría en una de las primeras regulaciones significativas de inteligencia artificial en Estados Unidos.

De acuerdo con The Verge, este proyecto de ley redactado por Scott Wiener, senador demócrata por San Francisco, obligaría a las empresas de IA que operan en California a implementar una serie de precauciones en el desarrollo de sus modelos sofisticados. Esto incluiría tener siempre una forma de apagar los modelos en caso de que se vuelvan incontrolables, y que auditores externos participen en las auditorías de seguridad de los modelos.

Además, los desarrolladores podrán ser demandados por el fiscal general del Estado si el modelo de una empresa presenta una amenaza continua.

Tras la explosión que ha tenido la inteligencia artificial en los últimos dos años, ha quedado demostrado que esta tecnología tiene el potencial para transformar por completo muchas de las cosas que conocemos.

Mientras los usuarios experimentan con las capacidades más preocupantes de la IA generativa, que van desde deep fakes hasta crear música o programar, algunas empresas se han dedicado a resolver los desafíos más apremiantes de industrias completas.

Combatir la ineficiencia operativa es uno de los grandes avances que ha traído consigo la IA. En una entrevista reciente, Alex Sandoval, CEO de la compañía latinoamericana de IA Allie, aseguró que «nos estamos moviendo hacia un momento en el que las fábricas serán administradas por agentes de IA que manejan la mayor parte de las decisiones operativas (…) Y estos agentes analizarán datos, sugerirán optimizaciones e incluso implementarán cambios de forma autónoma».

Sin embargo, mientras los avances más prometedores están resolviendo los desafíos de las empresas, los gobiernos de todo el mundo han puesto los ojos en esta tecnología para supervisar sus avances.

Un freno al rápido desarrollo de la inteligencia artificial

El debate sobre si la inteligencia ha estado aquí desde que el auge de ChatGPT escaló de forma global a principios de 2023. Inicialmente generó una gran preocupación sobre las profesiones que una IA podría reemplazar, pero ahora el debate se está centrando en cuan seguro puede ser el desarrollo de este tecnología hasta llegar al punto de la Inteligencia Artificial General, la cual teóricamente podría igualar o superar el intelecto humano en todas las facetas del conocimiento.

Las leyes más duras han comenzado a caer. En días recientes Mark Zuckerberg y el CEO de Spotify acusaron a la Ley de IA de la Unión Europea, la primera regulación regional de este tipo, de «incoherente» y de «frenar la innovación». En una carta, «su fragmentada estructura normativa, plagada de incoherencias en su aplicación, obstaculiza la innovación y frena a los desarrolladores».

La queja de estos dos ejecutivos es solo una pequeña parte de los detractores que tiene la Ley de IA de la UE. Entre otras cosas, los usuarios de WhatsApp en la UE no pueden usar Meta IA en la aplicación, como tampoco en los demás servicios de Meta. Algunas de las innovaciones más recientes de Spotify que incluyen IA tampoco han podido llevarse a los usuarios europeos.

Algunos líderes del sector tecnológico y políticos en California, incluyendo la ex presidenta de la Cámara de Representantes, Nancy Pelosi, temen que algo similar termine ocurriendo en el Estado, lo que, según quienes se oponen, podría impedir que California lidere el desarrollo de la IA global y otras trabas a la innovación local.

Avatar

Sergio Ramos

Editor en Social Geek, y contribuidor en Entrepreneur y Forbes en Español. Experto en temas de tecnología que disfruta aprendiendo sobre startups, emprendimiento e innovación.

Relacionados