En julio de este año, representantes de siete gigantes tecnológicos: Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI se reunieron con la administración Biden-Harris para discutir el desarrollo responsable de la inteligencia artificial. Hoy, la Casa Blanca anunció que ocho empresas de tecnología más han participado voluntariamente en los esfuerzos de riesgo de IA.
Adobe, IBM, NVIDIA, Palantir, Stability, Salesforce, Scale y Cohere se unen a los signatarios existentes de los principios propuestos por el presidente Biden. Los compromisos requieren que las empresas firmantes tomen medidas como poner marcas de agua o etiquetar los medios generados por IA para que la gente sepa que no fueron creados por humanos.
Las empresas de IA también se comprometen a promover la equidad, la no discriminación, la transparencia, la privacidad y la seguridad cuando trabajan con IA.
El jefe de gabinete de la Casa Blanca, Jeff Zients, elogió a más empresas por unirse al esfuerzo y dijo que Biden ha hecho de aprovechar los beneficios de la inteligencia artificial y al mismo tiempo gestionar sus riesgos una máxima prioridad.
Hoy, estas ocho empresas líderes en IA prometen:
Las empresas se comprometen a realizar pruebas de seguridad internas y externas de los sistemas de inteligencia artificial antes de su lanzamiento.
Las empresas se han comprometido a compartir información sobre la gestión de los riesgos de la IA en toda la industria y con el gobierno, la sociedad civil y el mundo académico.
Las empresas se han comprometido a invertir en ciberseguridad y salvaguardias contra amenazas internas para proteger los pesos de los modelos propietarios e inéditos.
Las empresas se comprometen a facilitar que terceros descubran e informen vulnerabilidades en sus sistemas de inteligencia artificial.
Las dos empresas se comprometieron a desarrollar potentes mecanismos técnicos para garantizar que los usuarios sepan que el contenido es generado por inteligencia artificial, como los sistemas de marcas de agua.
Las empresas se han comprometido a informar públicamente sobre las capacidades, limitaciones y áreas de uso apropiado e inadecuado de sus sistemas de IA.
Las empresas se comprometieron a priorizar la investigación sobre los riesgos sociales que pueden plantear los sistemas de IA, incluido evitar prejuicios y discriminación dañinos y proteger la privacidad.
Estas empresas prometen desarrollar e implementar sistemas avanzados de inteligencia artificial para ayudar a resolver los mayores desafíos de la sociedad.
Sin embargo, mucha gente está preocupada por el auge de los servicios de inteligencia artificial. El carácter voluntario de estos compromisos se considera una solución temporal.
A finales de agosto, el presidente y vicepresidente ejecutivo de Microsoft, Brad Smith, expresó su apoyo y pidió el desarrollo de un "plan regulatorio" para garantizar que la inteligencia artificial permanezca bajo control humano. Además, la compañía publicó un plan sobre cómo cree que se debe gobernar la inteligencia artificial.