El gobierno del Reino Unido está presionando a empresas como OpenAI, Anthropic y Google para que expliquen el funcionamiento interno de sus grandes modelos lingüísticos (LLM). Si bien el código de algunos modelos es público, modelos como GPT-3.5 y GPT-4 no lo son, y OpenAI se muestra muy reacio a compartir muchos detalles.

El Reino Unido se está preparando para albergar una nueva cumbre mundial sobre inteligencia artificial, que reunirá a gobiernos, empresas e investigadores para examinar los riesgos que plantea la inteligencia artificial y discutir cómo reducirlos.

Una de las razones por las que las empresas se muestran reacias a compartir sus datos internos es que ese comportamiento podría revelar información patentada sobre sus productos. Si los actores maliciosos conocen más información privilegiada, también puede hacer que los modelos de inteligencia artificial sean vulnerables a los ciberataques.

Según el Financial Times, una de las cosas que el gobierno quiere comprobar son los pesos del modelo, que definen la fuerza de las conexiones entre las neuronas en diferentes capas del modelo. Actualmente, las empresas de IA no están obligadas a compartir estos detalles, pero se ha pedido una mayor transparencia a este respecto.

El Reino Unido celebrará su primera cumbre en Bletchley Park en noviembre. Bletchley Park ocupa un lugar importante en la historia de la informática, ya que fue aquí donde se descifraron los mensajes nazis. La prueba de Turing relacionada con la inteligencia artificial lleva el nombre de Alan Turing, quien también descifró códigos allí.

El Financial Times señaló que DeepMind, OpenAI y Anthropic de Google acordaron en junio abrir sus modelos al gobierno británico con fines de investigación y seguridad. Lamentablemente, las partes no se pusieron de acuerdo en aquel momento sobre el alcance y los detalles técnicos de la apertura. Ahora, el nivel de apertura requerido por el gobierno es bastante alto.

En última instancia, para que la cumbre sea exitosa, los asistentes deben comprender completamente cómo funcionan los modelos para poder comprender mejor sus peligros. Si tienen acceso adecuado a los modelos es otra cuestión.