En la primavera de 2026, Dario Amodei de repente se convirtió en una molestia en Silicon Valley. Huang Renxun casi nombró directamente a Amodei y criticó ferozmente a los directores ejecutivos que continúan prediciendo que la IA eliminará puestos de trabajo a gran escala por padecer un "complejo de Dios": una vez que te conviertes en director ejecutivo, es fácil pensar que lo sabes todo. Altman dijo que Amodei estaba utilizando el "miedo" para el marketing, y Yang Likun simplemente dijo que no entendía cómo la revolución tecnológica afectaría al empleo.

Incluso los medios comenzaron a preguntar: ¿Por qué un jefe de IA que sigue advirtiendo sobre el fin del mundo no se detiene?

Amoudi ofende a la gente, por supuesto, no sólo porque su sentido moral es demasiado alto y su inteligencia emocional demasiado baja.

Lo sutil es que de hecho ha creído en los riesgos de la IA durante mucho tiempo y, de hecho, ha convertido esta creencia en el arma comercial más poderosa de Anthropic.

Esta empresa establecida después de dejar OpenAI ya no es solo un equipo de investigación bajo el lema de "seguridad de IA". Claude Code se ha convertido en uno de los productos más potentes del mercado de la IA empresarial, con ingresos anuales que alcanzan los miles de millones de dólares. Lo que es aún más exagerado es que, según Business Insider, la valoración de Anthropic en el mercado secundario privado ha superado el billón de dólares.

Cuando una persona se mantiene en un terreno moral elevado y les recuerda a todos que disminuyan la velocidad, y al mismo tiempo apuesta en el medio del campo, y las apuestas se hacen cada vez más grandes, es difícil para él no convertirse en un objetivo.

01

T AGPH27Público Enemy

Amoudi se está convirtiendo en la persona más desagradable de la industria de la IA.

La última persona en abrir fuego es Huang Renxun.

En un podcast, Huang Renxun calificó a los directores ejecutivos de tecnología que con frecuencia predicen que la IA causará desempleo a gran escala e incluso provocará el riesgo de extinción humana como si sufrieran un "complejo de Dios".

Su idea general es que una vez que ocupas el puesto de director ejecutivo, es fácil que la gente empiece a pensar que lo saben todo. Pero el debate público sobre la IA debería volver a los hechos, en lugar de estar guiado por narrativas apocalípticas exageradas.

Estas palabras no fueron mencionadas por su nombre, pero es difícil no pensar en Amoudi.

Y esta no es la primera vez que Huang Renxun se siente provocado por la narrativa de riesgo de IA de Amodei.

Amoudi siempre ha apoyado controles de exportación de chips más estrictos e incluso escribió un artículo extenso pidiendo restricciones más estrictas. En el Foro de Davos de este año, comparó la exportación de chips de IA avanzados a China con "vender armas nucleares".

Por supuesto, Jen-Hsun Huang no aceptaría esta declaración.

En otro podcast, cuando se le preguntó a Huang sobre esta analogía, dijo directamente que era "ridícula". Cree que comparar los chips de IA con las armas nucleares es una analogía pobre e ilógica.

Si el contraataque de Huang Jen-Hsun proviene del conflicto de intereses directo entre Nvidia y Anthropic en la política de chips, entonces el ataque de OpenAI se parece más a una confrontación frontal entre viejos rivales.

En una conversación de podcast, Altman dijo que Anthropic está utilizando el "miedo" para marketing.

Usó una metáfora bastante dura: es como si alguien dijera, construimos una bomba y pronto la arrojaremos sobre tu cabeza, y luego podremos venderte un refugio antiaéreo por 100 millones de dólares.

Esta oración obviamente apunta a la vista previa de Claude Mythos que acaba de publicar Anthropic. Según la propia declaración de Anthropic, este modelo de seguridad de red es demasiado poderoso y no estará abierto al público por el momento. En cambio, se incluirá en un proyecto llamado "Alas de Vidrio" para realizar trabajos de seguridad defensiva para organizaciones asociadas.

Este no es el único "ataque" de OpenAI. El 13 de abril, The Verge reveló un memorando interno de cuatro páginas enviado a los empleados por Denise Dresser, directora de ingresos de OpenAI. El tema del memorando es cómo ganar el mercado de la IA empresarial, pero una sección está dedicada a discutir Anthropic, que casi desmantela al oponente punto por punto.

Escribe que la historia de Anthropic se basa en "el miedo, las restricciones y la noción de que una pequeña élite debería controlar la IA".

También dijo que Anthropic dependía demasiado de escenarios de código y tenía reservas insuficientes de poder de computación, y cuestionó su declaración de ingresos anual, diciendo que Anthropic incluía su reparto de ingresos con Amazon y Google en total, lo que resultó en que sus ingresos anualizados de 30 mil millones de dólares se sobreestimaran en aproximadamente 8 mil millones de dólares.

Amodei y Ultraman son viejos enemigos, OpenAI y Anthropic son competidores directos; El negocio de chips de Huang Renxun también se ha visto directamente afectado por las propuestas políticas de Amodei. Su contraataque parece ir por buen camino.

Pero ​​aún no ha terminado.

Yann LeCun también criticó públicamente a Amoudi en X. Esta vez, la controversia surge del impacto de la IA en el empleo.

En 2025, Amodei dijo en una entrevista con Axios que la IA puede eliminar la mitad de los empleos administrativos de nivel inicial en los próximos uno a cinco años y elevar la tasa de desempleo al 10% al 20%. También dijo que las empresas y los reguladores de IA no pueden seguir endulzando o restando importancia al impacto que se avecina.

En respuesta al juicio de Amodei sobre el empleo, Yang Likun dijo en X: “Dario está equivocado” y “no sabe nada sobre cómo la revolución tecnológica afecta el mercado laboral”. Incluso dijo que estas preguntas deberían ser escuchadas por los economistas y no por nadie en el círculo de la IA, incluido el propio Yang Likun.

Incluso la opinión pública empezó a tener algunas dudas.

Sólo para dar ejemplos de comentarios de medios conocidos: The Times cuestionó por qué el gigante de la IA que advirtió sobre el fin del mundo no se detuvo por sí solo. TechCrunch señaló que Anthropic restringió la apertura de Mythos, aparentemente para proteger la seguridad de Internet, pero esta apertura selectiva también puede ayudarlo a captar grandes clientes corporativos y evitar que las pequeñas empresas repliquen capacidades mediante destilación, protegiendo así sus propios intereses comerciales.

Obviamente, Amoudi lidera Anthropic y ocupa algún tipo de autoridad moral. Pero cuanto más alto estés, más te convertirás en un objetivo.

La pregunta es: ¿es sólo porque Amoudi tiene demasiados principios, insiste demasiado en la "seguridad" y no duda en ofender a los demás, por lo que a su vez está siendo atacado?

Cuanto más intenta Amodei ser un "marcador de ritmo moral", más evidente es la paradoja moral que tiene: se para en el medio del campo, haciendo apuestas mientras recuerda a todos que este juego puede ser tóxico.

Esto es muy incómodo.

02

“ Cómo llegó el “Rey de la Seguridad” acerca de

En el memorando, la directora de ingresos de OpenAI, Denise, mencionó una palabra: "élite". Su confrontación en el terreno moral casi se ha convertido en el pináculo de su reputación. Frente a los requisitos del Departamento de Guerra de los EE. UU., Anthropic se negó a relajar los límites del uso de Claude, insistiendo en que no se permitía su uso para vigilancia a gran escala, ni se permitía su uso en armas totalmente autónomas sin participación humana en la toma de decisiones.

Amoudi dijo en ese momento que “en conciencia no podían aceptar” la solicitud. En ese momento, el público aplaudió con una sensación de liberación perdida hace mucho tiempo. La élite de Silicon Valley finalmente se puso de pie de nuevo. dijo "no" a un mayor poder

Para entender de dónde viene este “rey de la seguridad”, todavía tenemos que mirar hacia atrás en sus orígenes

Amoudi nació en San Francisco en 1983. Su padre, un peletero italiano de Toscana, padecía. problemas de salud a largo plazo y murió cuando Amodei era joven; su madre, una judía-estadounidense nacida en Chicago, trabajó como gerente de proyectos de biblioteca El Instituto de Tecnología de California, una de las mejores escuelas de ciencia e ingeniería de los Estados Unidos, luego se transfirió a Stanford para obtener una licenciatura en física y finalmente fue a Princeton para completar un doctorado en biofísica.

Es una figura técnica que combina la investigación en física, neurociencia e inteligencia artificial en múltiples dimensiones, lo que también determina su compleja perspectiva.

En 2014, Ng reclutó a Amodei en el laboratorio de inteligencia artificial de Baidu en Silicon Valley para participar en la investigación de sistemas de reconocimiento de voz. Más tarde, se convirtió en uno de los autores del artículo Deep Speech 2. Este sistema se centra en el reconocimiento de voz de un extremo a otro y cubre inglés y mandarín. También intenta utilizar datos a mayor escala, potencia informática y capacitación para rehacer el proceso tradicional de reconocimiento de voz. Fue durante esta época que Amodei comenzó a desarrollar sus primeros instintos sobre la escala. Más tarde recordó en una entrevista que descubrió que cuando el modelo era más grande, los datos eran más y el tiempo de entrenamiento era más largo, los resultados seguían mejorando. Para él, la creencia en Scaling que más tarde atravesó a GPT y la generación de grandes modelos de Claude ya había sentado las bases para el reconocimiento de voz de Baidu.

Daniela Amodei también juega un papel importante. Ella también dejó OpenAI y el hermano y la hermana cofundaron Anthropic.

El hermano y la hermana forman una estructura de doble núcleo. Amoudi es más bien un representante de las líneas técnicas y narrativas de seguridad, mientras que Daniela es más responsable de las operaciones de la empresa, el desarrollo organizacional y la promoción empresarial. El temperamento único de Anthropic en la actualidad (que parece una institución de investigación de seguridad, por un lado, y una empresa de inteligencia artificial con rápida financiación y rápida expansión, por el otro), proviene en gran medida de esta combinación.

Este vínculo familiar también aporta una sensación especial de estabilidad a Anthropic, haciendo que la empresa se parezca más a un pequeño grupo que se separó de la antigua organización, con una fuerte identidad propia, pensando que quiere hacer IA de otra manera.

A finales de 2020, OpenAI emitió una actualización organizativa muy educada, anunciando que el entonces vicepresidente de investigación Amodei se marchaba. El artículo le agradece sus contribuciones en los últimos cinco años, menciona su participación en GPT-2, GPT-3 y estableció direcciones de investigación conjuntas con Ilya Sutskever y otros.

Lo más sutil es que OpenAI también escribió que Amoudi y varios colegas planean iniciar un nuevo proyecto que "puede centrarse menos en el desarrollo de productos y más en la investigación". La mayoría de las otras páginas se utilizan para mostrar la determinación de OpenAI en el campo de la seguridad.

Años más tarde, cuando el conflicto entre Anthropic y OpenAI se hizo público, la gente recordó la "ruptura" amistosa de ese año. No es difícil ver que las dos partes ya tenían diferencias sobre cómo se debería priorizar el crecimiento de las capacidades de IA y los límites de seguridad.

Unos meses después, se fundó Anthropic. Desde entonces, la seguridad ha pasado lentamente de ser una postura personal de Amodei a convertirse en la columna vertebral de la empresa.

Cuenta con RSP, que es la “Política de Escalamiento Responsable”. Utiliza niveles de ASL para establecer requisitos de riesgo para modelos en diferentes etapas de capacidad, un poco como la versión AI de niveles de bioseguridad; guía el comportamiento modelo a través de un conjunto de principios "constitucionales"; también continúa invirtiendo en investigación de interpretabilidad e intenta abrir la caja negra del modelo.

Amodei ciertamente está aprovechando la “seguridad”, pero sólo si también cree realmente en la seguridad a largo plazo. Desde que dejó OpenAI hasta la fundación de Anthropic, pasando por RSP, la "Constitución" de IA, la explicabilidad, la clasificación de riesgos del modelo y los límites de los contratos de defensa, su comportamiento ha sido bastante consistente a largo plazo.

Aquí también es donde Amoudi se complica.

Tiene una fuerte confianza en sí mismo de élite; he visto mayores riesgos, por lo que estoy calificado para recordarles a todos que sean más lentos, más estrictos y más temerosos. Pero es la misma confianza la que lo hace parecer condescendiente.

Y cuando Amoudi comienza a dirigir una empresa comercial, cuando la "moralidad" se encuentra con los negocios, el delicado equilibrio se vuelve aún más difícil de mantener.

03

Cuando “Seguro” se convierte en la línea principal del empresa

“Seguridad” es tanto el negocio de Anthropic como su mecanismo de evaluación.

Lo especial de Anthropic es que era una nueva organización formada por un grupo de personas que abandonaron OpenAI desde el principio. Las razones para irse incluyeron rutas técnicas, conceptos de seguridad y desacuerdos sobre "quién debería definir el futuro de la IA".

Entonces la cultura es particularmente importante en Anthropic, más como un sistema operativo.

Amoudi es un diseñador organizacional con temperamento de investigador. Una vez dijo en una entrevista que alrededor de un tercio, o incluso el 40%, de su tiempo lo dedica a garantizar que la cultura de Anthropic sea buena.

Anthropic siempre habla de precaución, moderación y límites en la superficie, pero internamente no es una cultura tibia. Por el contrario, Anthropic tiene un canal Slack similar a un cuaderno público personal, donde los empleados escriben sus propias ideas, avanzan en su trabajo e incluso debaten directamente sobre Amoudi.

Es concebible que, ya sea por el umbral de entrada de Anthropic o por la continua configuración y colisión de la cultura interna, se haya formado algún tipo de mecanismo de selección de talentos.

El año pasado, Meta ha estado agitando su chequera por todas partes para reclutar personas con el fin de fortalecer su equipo de IA. El precio del talento en la industria de la IA se ha elevado a un nivel exagerado y los mejores investigadores e ingenieros casi se han convertido en superestrellas del libre mercado. Ante este tipo de caza furtiva, algunas empresas instintivamente "siguen el precio", o al menos declaran explícitamente que quieren aumentar los salarios de los empleados y mantener a las personas en primer lugar.

Amoudi no hizo esto. Ha explicado públicamente que Anthropic no romperá inmediatamente sus principios de compensación sólo porque una empresa externa le haga una oferta altísima a alguien. Dijo que si Zuckerberg golpea el nombre de alguien al azar como un dardo, eso no significa que esa persona deba recibir diez veces más que el colega igualmente talentoso que tiene al lado.

Lo que es aún más interesante es que Amodei dijo que algunos empleados de Anthropic no estaban dispuestos ni siquiera a hablar con Zuckerberg cuando se enfrentaban a la caza furtiva de Meta. Ciertamente hay un elemento de alarde en esta frase. Pero lo que realmente quiere transmitir es que el "consenso" entre los empleados de Anthropic existe y es fuerte.

Amodei debe convencer a los empleados de que Anthropic no es otra empresa de inteligencia artificial que sólo quiere funcionar más rápido; al mismo tiempo, debe hacer que esta empresa funcione lo suficientemente rápido. De lo contrario, no importa cuán hermosa sea la narrativa de seguridad, simplemente se convertirá en un comentario moral al margen del juego.

"Seguridad" ha logrado grandes resultados como negocio.

Naturalmente, Anthropic ha atraído a clientes que tienen mayores requisitos de confiabilidad y controlabilidad desde el principio. Cuando Claude se lanzó por primera vez, hizo hincapié en la confiabilidad, la previsibilidad y la capacidad de arranque. Sus primeros socios fueron herramientas de producción de conocimiento, búsqueda, educación y flujo de trabajo como Notion, Quora, DuckDuckGo y Juni Learning.

Anthropic no vende el "modelo más barato". Empresas, gobiernos, códigos, finanzas, atención médica, educación, sector público: estos clientes se preocupan más por la estabilidad, el cumplimiento, los límites de seguridad y la responsabilidad a largo plazo. También se puede ver por el precio que Claude no es una ruta de bajo precio. El precio de Claude Opus 4.7 es de 5 dólares estadounidenses por millón de tokens de entrada y 25 dólares estadounidenses por millón de salidas; Claude Sonnet 4.6 cuesta 3 dólares de entrada y 15 dólares de salida. En comparación, Grok 4.20 de xAI tiene una entrada de $2 y una salida de $6, lo que obviamente es más radical; El GPT-5.5 de OpenAI tiene una entrada de $5 y una salida de $30, que está en el mismo rango de precio alto que Claude Opus.

Reuters también informó anteriormente que Anthropic tiene más de 300.000 clientes comerciales y empresariales, que contribuyen con alrededor del 80% de los ingresos. Los clientes empresariales pagan según el uso, con una retención más estable y un mayor margen de expansión. Una vez que ingresan el código, el flujo de oficina, las plataformas en la nube y los sistemas gubernamentales, los ingresos son incomparables con los productos de suscripción ordinarios.

Por el contrario, OpenAI ha hecho el mayor ruido en el lado C con ChatGPT y, de hecho, ha educado a usuarios masivos a una escala sin precedentes; sin embargo, tener muchos usuarios del lado C no significa que la estructura de ingresos sea la mejor.

La última declaración de OpenAI es que los ingresos corporativos han superado el 40% de los ingresos totales y espera alcanzar al consumidor para fines de 2026. En otras palabras, incluso OpenAI está trabajando arduamente para ingresar al mercado empresarial.

La cooperación de Anthropic con el Departamento de Guerra de EE. UU. es un ejemplo típico. Durante mucho tiempo, Anthropic fue la única empresa de inteligencia artificial con la que DoW cooperaba en el "ámbito confidencial". Claude se utiliza para tareas como análisis de inteligencia, modelado y simulación, planificación de combate y operaciones cibernéticas.

Siguiendo esta línea de pensamiento, mirando hacia atrás a la feroz “lucha” entre Anthropic y DoW, se muestra la capacidad de Amodei para tratar la seguridad como un negocio: al enfatizar el resultado final de la “vigilancia masiva” y las “armas autónomas”, incluso si perdió la cooperación con DoW, la visibilidad pública y la “confiabilidad” de Anthropic se han elevado a un nivel superior. y ha ganado un favor sin precedentes en el mercado de capitales.

Los ingresos anuales de Anthropic aumentaron de 9 mil millones de dólares a fines de 2025 a 30 mil millones de dólares en abril de 2026; en febrero de este año, completó una financiación de 30.000 millones de dólares con una valoración de 380.000 millones de dólares, y luego Google planeó invertir hasta 40.000 millones de dólares en ella. Algunos informes indican que su valoración en el mercado secundario ha alcanzado los 1,1 billones de dólares.

La seguridad suena como una restricción, pero en Anthropic termina siendo un lenguaje comercial de alto nivel.

Pero ​​esta técnica de gestión ciertamente tiene su lado peligroso.

Cuando una empresa convierte la "seguridad" en una creencia organizacional, naturalmente obtendrá un sentido de superioridad moral y será más fácil retratar a los competidores como personas irresponsables y agrupar las opciones comerciales en opciones de valor.

Es por eso que cuanto más exitoso es Anthropic, más incómodo se vuelve Amoudi.

04

Dos caras de la “seguridad”TAGPH 10

Sería Es un poco ingenuo considerar a Amoudi simplemente como un "hombre de ciencia e ingeniería" que tiene ideales y objetivos pero poca inteligencia emocional, por lo que siempre dice la verdad y ofende a los demás.

El Wall Street Journal publicó una vez un artículo que recordaba la disputa de 10 años entre Amodei y Ultraman.

La historia de Amodei en OpenAI está lejos de explicarse por “diferencias en conceptos de seguridad”.

En 2018, después de que Musk se retiró, Amodei acordó quedarse con la condición de que Brockman (uno de los cofundadores) y Sutskowe no asumieran el poder; él fue el primero en hablar de poder. distribución, no rutas técnicas.

Más tarde, en el proyecto del modelo clave, él y su hermana Daniela se unieron para bloquear a Brockman que quería unirse. Una de las razones fue que cierto investigador principal "no quería trabajar con él". Más tarde, el investigador se describió a sí mismo como un "arma de poder" por parte de los altos ejecutivos, lo que demuestra que Amodei sabe cómo utilizar a las personas para formar alianzas.

A medida que GPT-2/3 se hizo popular, se volvió cada vez más sensible con respecto a la atribución y exposición del crédito: no estaba satisfecho con que Brockman "se robara el protagonismo" en el podcast, y se enojó cuando descubrió que Altman y Brockman iban a reunirse con Obama sin él.

Al año siguiente, pidió ser ascendido a vicepresidente de investigación. Altman estuvo de acuerdo e incluyó en el correo electrónico de la junta directiva: "Amody promete no menospreciar los proyectos que no aprueba", lo que era como una cláusula de alto el fuego.

Estos detalles muestran que la seguridad es el credo de Amoudi y un arma organizativa afilada. Habla de condiciones, lucha por proyectos y lucha por el derecho a hablar, y utiliza el lenguaje del "riesgo" para definir quién puede permanecer en el núcleo.

Finalmente dejé OpenAI para fundar Anthropic. No fue tanto una salida ideal, sino más bien un movimiento del campo de batalla después del fracaso de la lucha interna por el poder.

Cuando tomó el mando de Anthropic, la situación se volvió más complicada. Anthropic ya no es un campo de pruebas ideal en un laboratorio de investigación, sino un acorazado comercial de rápido crecimiento. En este momento, la seguridad ha pasado de ser un principio puro a un punto de venta sólido de un producto.

Cuanto más Anthropic enfatiza los riesgos de la IA de manera destacada, más resalta la necesidad de su propia existencia; cuanto más señale a otros por correr demasiado rápido, más podrá presentarse como el socio más confiable de empresas, gobiernos y reguladores.

Su narrativa conlleva naturalmente una comparación moral. Elegir a Claude no es solo elegir un modelo, sino también elegir una ruta más responsable y controlable.

Para los competidores, esto es muy molesto. Usted simplemente vende productos y convenientemente hace que otros parezcan jugadores irresponsables. La seguridad se ha convertido en un foso de diferenciación y en una herramienta de marketing. Los clientes empresariales están dispuestos a pagar más por "tranquilidad" y es más probable que los departamentos gubernamentales entreguen proyectos delicados a la empresa "más segura".

En este proceso, la seguridad también se ha convertido en moneda de cambio política.

Axios informó que en el primer trimestre de 2026, los gastos de lobby federal de Anthropic alcanzaron los 1,6 millones de dólares, superando el millón de dólares de OpenAI y estableciendo su propio récord; Anteriormente había anunciado una inversión de 20 millones de dólares en una organización de defensa bipartidista centrada en la transparencia de la IA y las barreras de seguridad, y planea ampliar su equipo de políticas y establecer una oficina a largo plazo en Washington.

Para decirlo sin rodeos, Amodei ya está compitiendo por las reglas del juego en la era de la IA.

La complejidad de Amodei radica en el hecho de que estas dos cosas pueden ser ciertas al mismo tiempo: él cree en la seguridad de la IA y, de hecho, ha convertido la seguridad de la IA en el arma comercial más avanzada de Anthropic. La seguridad es a la vez su religión y su palanca de poder.

Los principios y los intereses no son simplemente opuestos, sino que se alimentan y fortalecen mutuamente. Es este entrelazamiento de verdad y falsedad lo que lo hace alabado como el "rey de la seguridad" y también considerado por algunos como un comerciante astuto.

Antrópico Cuanto mejor pueda explicar los riesgos, más oportunidades tendrá para definirlos; Cuantas más oportunidades tengas para definir riesgos, más podrás ponerte en el centro de las reglas de la era de la IA.

Esta es la “magia de seguridad” de Amoudi, y el “enemigo público” es un efecto secundario necesario de jugar magia.

Quizás lo disfrute.