OpenAI anunció el lanzamiento de un nuevo plan de seguridad llamado "Seguridad avanzada de cuentas (AAS)" para los usuarios de ChatGPT, lo que marca el comienzo de la compañía a fortalecer la protección de cuentas de manera más sistemática. Esta función es opcional y está diseñada para "usuarios objetivo de alto valor", pero en teoría cualquier usuario que desee aumentar el nivel de seguridad de su cuenta puede utilizarla.

Como parte de este plan, la empresa de seguridad digital Yubico anunció una asociación con OpenAI para vincular dos nuevas claves de seguridad de hardware directamente al sistema de cuentas ChatGPT para defenderse de la creciente amenaza de phishing. Yubico dijo que esta cooperación tiene como objetivo ayudar a los usuarios a prevenir escenarios de ataque que roben cuentas de chatbot mediante medios de phishing.
Las dos empresas lanzarán un par de productos YubiKey de "marca compartida", denominados YubiKey C NFC y YubiKey C Nano. OpenAI dijo que AAS es particularmente adecuado para grupos como disidentes políticos, periodistas, investigadores y funcionarios electos que realizan trabajos políticamente sensibles y de alto riesgo, y también es adecuado para que los usuarios empresariales protejan sus secretos comerciales guardados en las sesiones de ChatGPT. "Nuestro objetivo es reducir significativamente el riesgo de acceso no autorizado a cuentas de OpenAI en todo el mundo", dijo el director ejecutivo de Yubico, Jerrod Chong, en un comunicado de prensa anunciando la asociación.
La llamada clave de seguridad es un pequeño dispositivo de hardware que se puede vincular a una cuenta digital y generalmente se usa a través de la interfaz USB de una computadora. Cada clave tiene una identificación criptográfica única en su interior. Sólo la persona que realmente posee el dispositivo puede iniciar sesión en la cuenta correspondiente, añadiendo así una fuerte línea de defensa física además de la contraseña.
Aunque el riesgo de "phishing de cuentas ChatGPT" todavía suena un poco abstracto para muchos usuarios comunes, cada vez más estudios e informes han demostrado que los ciberdelincuentes están poniendo sus miras en las plataformas de chatbot. Debido a que tantos usuarios revelan información comercial confidencial o detalles privados en sus conversaciones, una vez que estas conversaciones caen en las manos equivocadas, pueden convertirse en material para chantaje, fraude o nuevos ataques.
La seguridad digital también se está convirtiendo en un nuevo foco en toda la industria de la IA. Hace unas semanas, Anthropic acaba de lanzar un modelo de seguridad de red llamado Mythos, que intenta explorar la aplicación de la IA tanto en ataque como en defensa. Para no quedarse atrás en este tema, OpenAI ha lanzado recientemente una serie de iniciativas relacionadas con la defensa de la red, incluido el lanzamiento de un marco de seguridad digital para la "era inteligente". Esta cooperación con Yubico es la última parte de su estrategia de seguridad.
Por supuesto, aunque habilitar las claves de seguridad de hardware puede mejorar significativamente la seguridad de la cuenta, también conlleva desventajas en el uso práctico: una vez que el usuario pierde la clave, OpenAI no podrá ayudarlo a recuperar el acceso a la cuenta. En otras palabras, una vez que la cuenta vinculada a la clave de seguridad se "pierde en el mundo real", los registros de sesión de ChatGPT correspondientes y los datos de la cuenta también pueden desaparecer permanentemente.