Nueva York avanza hacia la primera regulación estatal de inteligencia artificial
- El Blog News
- Jun 16
- 4 min read
El proyecto RAISE Act, a la espera de la firma de la gobernadora Hochul, podría establecer un nuevo estándar para el control de sistemas de inteligencia artificial de alto riesgo en Estados Unidos y el mundo.

La inminente decisión de la gobernadora Kathy Hochul sobre la RAISE Act podría convertir a Nueva York en el primer estado de Estados Unidos en regular de manera integral la inteligencia artificial de frontera, un paso que impactaría directamente a gigantes tecnológicos como OpenAI, Google y Anthropic.
Tras una aprobación legislativa casi unánime, la ley espera la firma de Hochul antes de mediados de julio de 2025, en un contexto de fuerte respaldo público y una polarización sin precedentes entre expertos en IA y la industria tecnológica.
Según informó The New York Times, la RAISE Act busca establecer nuevos estándares de seguridad para los modelos de IA más avanzados y podría sentar un precedente regulatorio a nivel nacional e internacional.
Detalles del proceso legislativo y estado actual
El recorrido legislativo de la RAISE Act (Senate Bill S6953B/Assembly Bill A6453B) ha sido notablemente rápido y contundente. Presentada en marzo de 2025 por el senador Andrew Gounardes y el asambleísta Alex Bores, la propuesta atravesó varias enmiendas en comités antes de ser aprobada el 12 de junio de 2025 por ambas cámaras, con un resultado en el Senado de 58 votos a favor y solo uno en contra. De acuerdo con The New York Times, este respaldo bipartidista refleja la urgencia y el consenso en torno a la necesidad de regular la inteligencia artificial avanzada.
La ley se encuentra ahora en el despacho de la gobernadora Hochul, quien tiene hasta mediados de julio para decidir si la promulga. En caso de recibir su firma, la RAISE Act entraría en vigor 90 días después, lo que situaría su aplicación efectiva en octubre de 2025. Este plazo otorga a las empresas afectadas un margen limitado para adaptar sus sistemas y procesos a las nuevas exigencias regulatorias.
Los patrocinadores de la ley han ajustado su contenido para evitar los errores que llevaron al fracaso de la SB 1047 en California, eliminaron disposiciones polémicas como los “interruptores de emergencia” y suavizaron la responsabilidad sobre modelos derivados.
Principales disposiciones de la ley
La RAISE Act establece un marco regulatorio específico para los denominados “modelos de frontera”, es decir, sistemas de inteligencia artificial entrenados con más de 10^26 operaciones computacionales y cuyo desarrollo supere los 100 millones de dólares. Este umbral excluye a desarrolladores pequeños y a la investigación académica, concentra la regulación en los sistemas más potentes y con mayor potencial de riesgo.
Entre las disposiciones centrales, la ley exige que los desarrolladores de estos modelos implementen y publiquen protocolos escritos de seguridad antes de su despliegue. Estos protocolos deben contemplar medidas contra el acceso no autorizado, evaluaciones de riesgos que incluyan amenazas como el desarrollo de armas biológicas o actividades criminales automatizadas, y revisiones anuales para adaptarse a la evolución de las capacidades de los modelos.
Uno de los requisitos más estrictos es la obligación de reportar incidentes de seguridad en un plazo máximo de 72 horas. Cualquier evento que demuestre un aumento del riesgo de daño crítico, como accesos no autorizados, comportamientos peligrosos o vulnerabilidades detectadas, debe ser notificado a la fiscalía general en ese periodo.
La ley impone auditorías anuales independientes para verificar el cumplimiento de los protocolos de seguridad. Los informes de estas auditorías, tanto públicos como confidenciales, deben ser entregados a los reguladores, lo que introduce un nuevo mercado para auditores especializados en IA.
En cuanto a sanciones, la estructura de multas es significativa: la primera infracción puede acarrear una penalización de hasta el 5% del costo total de computación (con un mínimo de 10 millones de dólares), y las reincidencias pueden llegar al 15% (con un máximo de 30 millones de dólares). Para un modelo típico que cueste 100 millones de dólares, las multas oscilarían entre cinco y 15 millones, cifras relevantes incluso para las grandes tecnológicas.
Apoyos y oposiciones: expertos versus industria
La RAISE Act ha generado una inusual alianza entre investigadores de IA y una fuerte resistencia de la industria tecnológica. Casi 40 expertos de primer nivel, entre ellos Geoffrey Hinton y Yoshua Bengio, firmaron una carta de apoyo dirigida a la gobernadora Hochul, calificaron la ley como “sensata y poco prescriptiva”. Hinton, conocido como el “padrino de la IA”, ha advertido reiteradamente sobre los riesgos existenciales de la inteligencia artificial, mientras que Bengio ha mantenido una postura constante a favor de la regulación.
En contraste, la oposición liderada por la firma de capital de riesgo Andreessen Horowitz ha sido frontal. Anjney Midha, socio general de la firma, desestimó la ley como “otra estúpida ley estatal sobre IA que solo perjudicará a Estados Unidos en un momento en que nuestros adversarios avanzan rápidamente”. La American Innovation Network ha anunciado una campaña de presión y publicidad con un presupuesto superior a los seis dígitos para frenar la promulgación de la ley.
Los críticos de la industria argumentan que la RAISE Act podría transformar desafíos técnicos en cargas burocráticas. El American Enterprise Institute advirtió que la ley prioriza el cumplimiento formal sobre la seguridad real, y estimó que los costos de cumplimiento podrían superar ampliamente las proyecciones oficiales.
Comments