La administración Trump en Estados Unidos está considerando un paquete de medidas administrativas para reforzar los controles sobre modelos de inteligencia artificial de vanguardia para hacer frente a los crecientes riesgos de seguridad nacional. Las discusiones dentro de la Casa Blanca sobre nuevas regulaciones, que incluirían el establecimiento de un mecanismo formal de revisión y publicación de modelos avanzados de IA, han estado en curso durante algún tiempo, según siete representantes de la industria tecnológica y asesores políticos a quienes se les concedió el anonimato.

Varias personas familiarizadas con el asunto dijeron que en recientes comunicaciones a puerta cerrada con la industria, una de las ideas propuestas por la Casa Blanca fue establecer un sistema de revisión en forma de orden ejecutiva para evaluar el impacto potencial de los llamados "modelos de IA de vanguardia". Un experto en políticas de IA y una fuente de la industria dijeron que bajo este esquema, las empresas pueden necesitar obtener "luz verde" del gobierno federal antes de lanzar modelos de alta capacidad. El New York Times había revelado anteriormente que la Casa Blanca estaba considerando una estructura de revisión similar.
Un portavoz de la Casa Blanca dijo que cualquier política formal sería anunciada personalmente por el presidente Donald Trump y que las discusiones actuales sobre posibles órdenes ejecutivas siguen siendo "especulación". Al mismo tiempo, cada vez más empresas de tecnología cooperan voluntariamente con el gobierno y presentan activamente nuevos modelos para su revisión antes de su puesta en línea. Precisamente el martes, la administración Trump llegó a un acuerdo con Microsoft, xAI y Google DeepMind para permitir al gobierno realizar una evaluación de riesgos de seguridad nacional en una nueva generación de modelos antes de que se hagan públicos.
Las medidas se producen mientras continúa creciendo el malestar público generalizado sobre la IA, incluidas preocupaciones sobre la seguridad de la tecnología en sí y preguntas sobre la enorme inversión de la industria en campañas políticas. Una encuesta de POLITICO publicada a principios de este mes mostró que los votantes estadounidenses son significativamente escépticos con respecto a la inteligencia artificial en general. En este contexto, un mecanismo formal de revisión previa al despliegue de la IA es sólo una de una serie de medidas administrativas que actualmente está considerando la Casa Blanca. Otras ideas incluyen adoptar un enfoque más estricto ante los riesgos de seguridad que plantea la IA y limitar el espacio para que la industria tecnológica contrarreste los requisitos políticos y de seguridad del gobierno.
La administración está trabajando en un borrador de orden ejecutiva de 16 páginas que prohibiría al sector privado "interferir" con el uso de modelos de IA por parte del gobierno, según cuatro personas familiarizadas con el asunto. El borrador también planea endurecer los estándares federales de adquisición y contratación y darle al gobierno una mayor agencia para trabajar con los proveedores de IA. Las disposiciones son ampliamente vistas como una respuesta directa a un reciente enfrentamiento entre la Casa Blanca y la empresa de inteligencia artificial Anthropic, que se ha negado a permitir que el ejército use su modelo Claude para monitorear a ciudadanos estadounidenses o alimentar armas autónomas, lo que provocó una protesta del Departamento de Defensa.
En respuesta, el secretario de Defensa, Pete Hegseth, clasificó en marzo a Anthropic como un "riesgo para la seguridad de la cadena de suministro", una medida poco común que inmediatamente restringió la capacidad de las agencias federales para utilizar los productos de la compañía. Muchos observadores señalaron que la actual ronda de políticas que se están gestando en torno a la IA marca un cambio importante en el pensamiento regulatorio de la administración Trump. Antes de esto, bajo el lobby de capitalistas de riesgo de "laissez-faire" como David Sacks y Marc Andreessen, la Casa Blanca siempre había adoptado una actitud relativamente relajada y "ligera" hacia la regulación y supervisión de la industria de la IA.
Ahora, este aparentemente "giro brusco" está despertando vigilancia en el círculo tecnológico, y algunos representantes de la industria temen que un control gubernamental más estricto ralentice el ritmo de la innovación. Daniel Castro, presidente del grupo de expertos "Fundación para la Innovación y la Tecnología de la Información", dijo que nadie quiere entrar en un mundo en el que "cada nueva versión del modelo debe presentarse primero al gobierno para su aprobación". Advirtió que la "velocidad de Silicon Valley" es muy diferente de la "velocidad de Washington" y que Estados Unidos debe seguir avanzando rápidamente si quiere competir con China en IA.
La orden ejecutiva propuesta también apunta a las nuevas amenazas que plantea la IA de vanguardia en ciberseguridad, específicamente el nuevo modelo Mythos de Anthropic. Si bien el modelo aún no se ha hecho público, los primeros resultados de las pruebas realizadas por gobiernos y grandes instituciones muestran que Mythos es capaz de encontrar y explotar vulnerabilidades de software en formas que van mucho más allá de las capacidades de los piratas informáticos humanos. Dos personas familiarizadas con las discusiones revelaron que el borrador considera formular directrices técnicas y mejores prácticas para "modelos de peso abierto" para fortalecer la protección de la seguridad. Dichos modelos expondrán los parámetros de entrenamiento y permitirán a los usuarios volver a entrenarlos y modificarlos para diferentes tareas. La Casa Blanca también está considerando movilizar a la comunidad de inteligencia para ayudar a defenderse contra las amenazas a los sistemas críticos que plantea la IA de vanguardia, agregaron tres personas familiarizadas con el asunto.
Los riesgos potenciales que plantea Mythos han despertado máxima alerta entre los altos funcionarios de la administración Trump. A varios funcionarios les preocupa que, en medio del enfrentamiento con Anthropic, las agencias federales tengan dificultades para obtener Mythos para utilizarlo en "pruebas de estrés" de sistemas críticos. En las últimas semanas, la Casa Blanca ha comenzado a "enfriar" las tensiones con la empresa de IA. La administración está tomando medidas para establecer una junta de revisión para reevaluar la determinación de riesgo de la cadena de suministro hecha en Anthropic, dijeron dos fuentes, pero no está claro si este acuerdo se incluirá en el texto de la orden ejecutiva final de AI.
Desde fuera, el surgimiento de Mythos está remodelando el marco de las discusiones sobre la IA y la seguridad nacional dentro de la Casa Blanca. Saif Khan, quien se desempeñó como asesor de tecnología emergente en la administración Biden y ahora es investigador en el grupo de expertos Institute for Progress, dijo que antes había un cierto grado de desprecio por los riesgos relacionados dentro del gobierno, "pero ahora, muchas personas están comenzando a tomar este asunto extremadamente en serio". En su opinión, la era de la política de IA guiada únicamente por la lógica del capital de riesgo de Silicon Valley puede estar llegando a su fin dentro de la administración Trump.