WASHINGTON (AP) — El gobierno de Trump ordenó el viernes a todas las agencias estadounidenses que dejen de usar la tecnología de inteligencia artificial de Anthropic e impuso otras sanciones importantes, intensificando un enfrentamiento inusualmente público entre el gobierno y la compañía sobre la seguridad de la IA.
El presidente Donald Trump, el secretario de Defensa Pete Hegseth y otros funcionarios recurrieron a las redes sociales para criticar a Anthropic por no permitir a los militares el uso irrestricto de su tecnología de inteligencia artificial antes de la fecha límite del viernes, acusándolo de poner en peligro la seguridad nacional después de que el director ejecutivo Dario Amodei se negara a dar marcha atrás por preocupaciones de que los productos de la compañía podrían usarse de maneras que violarían sus salvaguardas.
“¡No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos!”, dijo Trump en las redes sociales.
Hegseth también consideró a la empresa un “riesgo para la cadena de suministro”, una designación que generalmente se aplica a los adversarios extranjeros y que podría hacer descarrilar las asociaciones críticas de la empresa con otras empresas.
En una declaración emitida el viernes por la noche, Anthropic dijo que impugnaría lo que llamó una acción sin precedentes y legalmente insostenible “nunca antes aplicada públicamente a una empresa estadounidense”.
Anthropic había declarado que buscaba garantías limitadas del Pentágono de que su chatbot de inteligencia artificial, Claude, no se utilizaría para la vigilancia masiva de estadounidenses ni en armas totalmente autónomas. El Pentágono afirmó no estar interesado en tales usos y que solo implementaría la tecnología de forma legal, pero también insistió en un acceso sin restricciones.
“Ninguna intimidación ni sanción por parte del Departamento de Guerra cambiará nuestra postura sobre la vigilancia nacional masiva o las armas totalmente autónomas”, declaró la compañía. “Impugnaremos cualquier designación de riesgo en la cadena de suministro ante los tribunales”.
El esfuerzo del gobierno por afirmar su dominio sobre la toma de decisiones interna de la empresa se produce en medio de un enfrentamiento más amplio sobre el papel de la IA en la seguridad nacional y preocupaciones sobre cómo se podrían utilizar máquinas cada vez más capaces en situaciones de alto riesgo que involucran fuerza letal, información confidencial o vigilancia gubernamental.
OpenAI llega a un acuerdo con el Pentágono horas después de que Anthropic fuera sancionada
Horas después de que su competidor fuera castigado, el CEO de OpenAI, Sam Altman, anunció el viernes por la noche que su compañía llegó a un acuerdo con el Pentágono para suministrar su IA a redes militares clasificadas, potencialmente llenando un vacío creado por la expulsión de Anthropic.
Pero Altman dijo que las mismas líneas rojas que fueron el punto de conflicto en la disputa de Anthropic con el Pentágono ahora están consagradas en la nueva asociación de OpenAI.
“Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomas”, escribió Altman, y agregó que el Departamento de Defensa “está de acuerdo con estos principios, los refleja en la ley y la política, y los incluimos en nuestro acuerdo”.
Altman también dijo que espera que el Pentágono “ofrezca estos mismos términos a todas las empresas de inteligencia artificial” como una forma de “desacelerar las acciones legales y gubernamentales y avanzar hacia acuerdos razonables”.
Trump y otros arremeten contra Anthropic
Trump afirmó que Anthropic cometió un error al intentar presionar al Pentágono. Escribió en Truth Social que la mayoría de las agencias deben dejar de usar la inteligencia artificial de Anthropic de inmediato, pero dio al Pentágono un plazo de seis meses para eliminar gradualmente la tecnología que ya está integrada en las plataformas militares.
“¡Estados Unidos de América nunca permitirá que una empresa radical de izquierda y progresista dicte cómo nuestro gran ejército lucha y gana guerras!”, escribió en mayúsculas.
Meses de conversaciones privadas estallaron en un debate público esta semana y llegaron a un punto muerto cuando Amodei dijo que su compañía «no puede en conciencia acceder» a las demandas.
Anthropic puede permitirse perder el contrato. Pero las acciones del gobierno plantearon riesgos más amplios en el punto álgido del meteórico ascenso de la empresa, que pasó de ser un laboratorio de investigación informática poco conocido en San Francisco a una de las startups más valiosas del mundo.
La decisión del presidente fue precedida por horas de importantes funcionarios designados por Trump en el Pentágono y el Departamento de Estado que recurrieron a las redes sociales para criticar a Anthropic, pero sus quejas plantearon contradicciones.
El principal portavoz del Pentágono, Sean Parnell, afirmó que la renuencia de Anthropic a acceder a las exigencias militares estaba «poniendo en peligro operaciones militares críticas y potencialmente poniendo en riesgo a nuestros combatientes». Hegseth afirmó que el Pentágono «debe tener acceso total e irrestricto a los modelos de Anthropic para cualquier propósito lícito en defensa de la República».
La publicación de Trump en las redes sociales decía que la compañía «debería ponerse de acuerdo y ser útil» durante el período de eliminación gradual o habría «importantes consecuencias civiles y penales».
El corresponsal de AP, Ben Thomas, informa que una empresa de inteligencia artificial está rechazando las demandas del Pentágono.
Sin embargo, la decisión de Hegseth de designar a Anthropic como un riesgo de la cadena de suministro utiliza una herramienta administrativa que ha sido diseñada para empresas propiedad de adversarios de Estados Unidos para evitar que vendan productos que sean perjudiciales para los intereses estadounidenses.
El senador de Virginia, Mark Warner, el demócrata de mayor rango en el Comité de Inteligencia del Senado, señaló que esta dinámica, “combinada con la retórica incendiaria que ataca a esa empresa, plantea serias preocupaciones sobre si las decisiones de seguridad nacional están motivadas por un análisis cuidadoso o por consideraciones políticas”.
Una disputa sacude Silicon Valley
La disputa sorprendió a los desarrolladores de IA en Silicon Valley, donde capitalistas de riesgo, destacados científicos de IA y una gran cantidad de trabajadores de los principales rivales de Anthropic (OpenAI y Google) expresaron su apoyo a la postura de Amodei en cartas abiertas y otros foros.
Estas medidas podrían beneficiar a ChatGPT de OpenAI, así como al chatbot competidor de Elon Musk, Grok, al que el Pentágono también planea dar acceso a redes militares clasificadas. Podría servir de advertencia a Google, cuyo contrato para suministrar sus herramientas de IA al ejército está en desarrollo.
Musk se puso del lado de la administración Trump, declarando en su plataforma de redes sociales X que «Anthropic odia la civilización occidental». Altman adoptó un enfoque diferente, expresando su solidaridad con las salvaguardas de Anthropic y oponiéndose al enfoque «amenazante» del gobierno, a la vez que trabajaba para asegurar el acuerdo de OpenAI con el Pentágono. Este fue el último giro en la larga y a veces enconada rivalidad de OpenAI con Anthropic, fundada por un grupo de exlíderes de OpenAI en 2021.
El general retirado de la Fuerza Aérea Jack Shanahan, ex líder de las iniciativas de inteligencia artificial del Pentágono, escribió en las redes sociales esta semana que el gobierno “pintarle una diana a Anthropic genera titulares picantes, pero al final todos pierden”.
Shanahan afirmó que Claude ya se usa ampliamente en el gobierno, incluso en entornos clasificados, y que las restricciones de Anthropic eran razonables. Añadió que los modelos de lenguaje de IA de gran tamaño que impulsan chatbots como Claude, Grok y ChatGPT tampoco están listos para su uso en entornos de seguridad nacional, en particular para armas totalmente autónomas.
Anthropic «no pretende hacerse el simpático», escribió en LinkedIn. «No encontrarás un sistema con un alcance más amplio y profundo en el ámbito militar».
Trump ordena a las agencias estadounidenses que descarten la inteligencia artificial de Anthropic mientras el Pentágono califica a la startup de riesgo para el suministro.
WASHINGTON, 27 feb (Reuters) – El presidente de Estados Unidos, Donald Trump, dijo el viernes que está ordenando al gobierno que deje de trabajar con Anthropic, y el Pentágono dijo que declararía a la startup como un riesgo para la cadena de suministro, lo que supone un duro golpe para el laboratorio de inteligencia artificial después de un enfrentamiento sobre las barreras tecnológicas.
Trump añadió que habría una retirada gradual de seis meses para el Departamento de Defensa y otras agencias que utilizan los productos de la compañía. Si Anthropic no colabora en la transición, afirmó Trump, utilizará «todos los poderes de la Presidencia para obligarlos a cumplir, con graves consecuencias civiles y penales».
Estas acciones representan una reprimenda extraordinaria por parte de Estados Unidos contra una de las principales empresas que la ha mantenido a la vanguardia en inteligencia artificial crítica para la seguridad nacional, amenazando con otorgar a Anthropic el estatus de paria que Washington hasta ahora reservaba para proveedores enemigos. Google (GOOGL.O) de Alphabet. , abre una nueva pestaña y Amazon.com (AMZN.O)
, abre nueva pestaña se encuentran entre los patrocinadores financieros de Anthropic.
Las medidas sientan además un precedente de que la ley estadounidense por sí sola limitaría la forma en que se despliega la IA en el campo de batalla, y el Pentágono busca preservar toda la flexibilidad en la defensa y no verse limitado por las advertencias de los creadores de la tecnología contra el uso de IA poco confiable en las armas.
En una declaración, Anthropic dijo que impugnaría cualquier designación de riesgo ante los tribunales por parte del Departamento de Defensa, al que la Administración Trump ha rebautizado como Departamento de Guerra.
«Creemos que esta designación sería jurídicamente inviable y sentaría un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno», afirmó la compañía.
«Ninguna intimidación o castigo por parte del Departamento de Guerra cambiará nuestra posición sobre la vigilancia doméstica masiva o las armas totalmente autónomas».
A última hora del viernes, su rival OpenAI, que cuenta con el respaldo de Microsoft (MSFT.O) Amazon y otras empresas anunciaron su propio acuerdo para implementar tecnología en la red clasificada del Departamento de Defensa. El director ejecutivo , Sam Altman, en X, afirmó que el Pentágono compartía sus principios de responsabilidad humana sobre los sistemas de armas y de no realizar vigilancia masiva en Estados Unidos.
«Los incluimos en nuestro acuerdo», dijo Altman sobre los puntos. «También implementaremos salvaguardas técnicas para garantizar que nuestros modelos se comporten como corresponde, algo que el Departamento de Guerra también quería».
No quedó claro de inmediato si estos detalles contractuales diferían de las líneas rojas propuestas por Anthropic. El Pentágono y OpenAI no respondieron de inmediato a una solicitud de comentarios.
‘GUERRA NUCLEAR’
El secretario de Defensa, Pete Hegseth, dijo que Anthropic sería designada como un riesgo para la cadena de suministro, luego de un impasse en meses de conversaciones sobre si las políticas de la compañía podrían limitar la acción militar.
En una reunión con Hegseth esta semana, el director ejecutivo de Anthropic, Dario Amodei, abogó por límites en el armamento y la vigilancia, lo que irritó a los funcionarios del Pentágono. El Pentágono afirmó que la ley estadounidense, y no una empresa privada, determinaría cómo defender el país.
La designación podría impedir que decenas de miles de contratistas utilicen la IA de Anthropic cuando trabajan para el Pentágono. Esto representa una amenaza existencial para sus negocios con el gobierno y podría perjudicar sus relaciones con el sector privado, afirmó Franklin Turner, abogado especializado en contratos gubernamentales.
«Incluir en la lista negra a Anthropic es el equivalente contractual a una guerra nuclear», dijo.
Estados Unidos tomó medidas similares para eliminar al gigante tecnológico chino Huawei de las cadenas de suministro del Pentágono. A partir de 2017, Estados Unidos restringió el uso de equipos Huawei por parte del Departamento de Defensa, prohibió a las agencias federales comprar su tecnología y suspendió las subvenciones y préstamos federales para equipos Huawei.
Anthropic se ha apresurado a ganar una feroz competencia para vender tecnología innovadora a empresas y gobiernos, especialmente para la seguridad nacional, antes de una oferta pública inicial (OPI) ampliamente esperada . La compañía ha declarado que aún no ha decidido su salida a bolsa.
Saif Khan, quien sirvió en el Consejo de Seguridad Nacional durante la Casa Blanca del expresidente Joe Biden, dijo que la acción del Departamento de Defensa «puede ser la regulación de inteligencia artificial doméstica más draconiana que cualquier gobierno haya emitido jamás».
«Podría decirse que el Departamento está tratando a Anthropic como una amenaza mayor para la seguridad nacional que cualquier empresa china de inteligencia artificial, ninguna de las cuales ha sido designada como riesgo para la cadena de suministro», dijo Khan.
‘ROBOTS ASESINOS’
Las empresas tecnológicas y el Pentágono han tenido repetidos enfrentamientos desde al menos 2018, cuando empleados de Google (propiedad de Alphabet) protestaron contra el uso de inteligencia artificial por parte del Pentágono para analizar imágenes de drones. Se produjo un acercamiento, con empresas como Amazon y Microsoft compitiendo por el negocio de defensa, mientras que varios directores ejecutivos de grandes tecnológicas se comprometieron el año pasado a cooperar con la administración Trump.
Pero los teóricos «robots asesinos» han preocupado a activistas de derechos humanos y tecnología, ya que las guerras en Ucrania y Gaza mostraron sistemas cada vez más automatizados. La audaz acción militar estadounidense del último año ha avivado estas preocupaciones, afirmó Jack Shanahan, quien dirigió el Proyecto Maven, el proyecto de guerra algorítmica del Pentágono.
«La gente podría estar un poco más nerviosa ante la ausencia de restricciones», dijo Shanahan. La aprobación legal de la Casa Blanca podría ser «la máxima protección para cualquiera que haga algo que pueda resultar en la falta del debido proceso, víctimas civiles o daños colaterales».
El Pentágono firmó acuerdos por valor de hasta 200 millones de dólares cada uno con importantes laboratorios de inteligencia artificial el año pasado, incluidos Anthropic, OpenAI y Google.
Anthropic, que negocia adjudicaciones por debajo de ese límite, había expresado su preocupación por la capacidad del sistema legal para seguir el ritmo del progreso de la IA. Actualmente, por ejemplo, las leyes estadounidenses no impiden el uso de la tecnología para recopilar datos aparentemente inofensivos que revelen información sobre la vida privada de las personas, según declaró su director ejecutivo, Amodei.
La inteligencia artificial de Anthropic se ha utilizado en toda la comunidad de inteligencia y en las fuerzas armadas, y fue la primera entre las empresas de inteligencia artificial similares en trabajar con información clasificada, a través de un acuerdo de suministro mediante el proveedor de la nube Amazon.
Información de Jeffrey Dastin en San Francisco; Ryan Patrick Jones en Toronto; Andrea Shalal, Mike Stone y Chris Sanders en Washington; David Jeans y Jack Queen en Nueva York; Chris Thomas y Mrinmay Dey en Ciudad de México; Devika Madhusudhanan Nair en Bengaluru; e Ismail Shakil en Ottawa; redacción de Jeffrey Dastin y Daphne Psaledakis; edición de Caitlin Webber, Matthew Lewis, Edmund Klamann y Tom Hogue.
Musk acusa a la empresa Anthropic de odio y antioccidental
Anteriormente, el subsecretario de Defensa de EE. UU., Emil Michael, declaró que anteriormente, el modelo de IA de Anthropic se adhería al principio de evitar respuestas que pudieran ofender a culturas no occidentales.
NUEVA YORK, 27 de febrero. /TASS/. El empresario estadounidense Elon Musk acusó a Anthropic, una empresa de desarrollo de tecnología de inteligencia artificial, de odiar al mundo occidental tras su negativa a conceder al Pentágono acceso a su modelo de IA.
«Anthropic odia la civilización occidental», escribió en su página en la red social X, comentando una publicación del subsecretario de Defensa de Estados Unidos, Emil Michael.
En la publicación, Michael señaló que, anteriormente, el modelo de IA de Anthropic se ceñía al principio de evitar respuestas que pudieran ofender a culturas no occidentales. Según él, la compañía ahora intenta eliminar estas reglas de internet.
Anteriormente, el director ejecutivo de Anthropic, Dario Amodei, declaró que la compañía no aceptó otorgarle al Pentágono acceso total a su modelo de inteligencia artificial porque no quiere que sus productos se utilicen para la «vigilancia masiva» de ciudadanos estadounidenses o para el desarrollo de armas totalmente autónomas.
El 25 de febrero, el portal Axios informó que el jefe del Pentágono, Pete Hegseth, dio a Anthropic hasta la noche del 27 de febrero para proporcionar al ejército acceso sin restricciones a su modelo de inteligencia artificial, Claude. De lo contrario, el departamento militar amenazó con suspender la cooperación con Anthropic o invocar la Ley de Producción de Defensa de 1950, que permite a las autoridades federales intervenir directamente en la producción y distribución de productos de empresas privadas.
27 de febrero, 16:09
IBM y Anthropic anuncian asociación estratégica sobre inteligencia artificial para empresas
spanish.news.cn| 2025-10-08
SAN FRANCISCO, 7 oct (Xinhua) — El gigante tecnológico estadounidense IBM y la empresa de inteligencia artificial (IA) Anthropic, de reciente creación, anunciaron hoy martes una asociación estratégica para acelerar el desarrollo de una IA para empresas mediante la incorporación del gran modelo de lenguaje de Anthropic, Claude, en productos de software de IBM.
A través de la asociación, Claude será integrado primero en el nuevo entorno de desarrollo integrado basado en IA de IBM, el cual está diseñado con capacidades de generación de tareas avanzadas para los ciclos vitales de desarrollo de software empresarial, incluyendo la modernización de software, se señaló en el anuncio.
IBM también añadió que está explorando planes para incluir a Claude en otros productos de IBM como parte de un enfoque de integración de productos.
«Esta asociación amplía nuestra cartera de software con capacidades de IA avanzadas a la vez que mantiene la gobernanza, seguridad y confiabilidad que nuestros clientes han llegado a esperar. Daremos a los equipos de desarrollo una IA que se ajuste a la manera en la que las empresas funcionan, no herramientas experimentales que generen nuevos riesgos», dijo Dinesh Nirmal, vicepresidente de software en IBM.
«Esta asociación con IBM nos permite llevar el mismo nivel de dedicación a aún más equipos empresariales, mientras construimos estándares abiertos que harán que los agentes de IA sean auténticamente útiles en entornos empresariales», dijo Mike Krieger, director de producto en Anthropic.
Las acciones de IBM subieron 1,5 por ciento tras el anuncio.
Una empresa tecnológica rechaza las exigencias del Pentágono sobre el uso sin restricciones de su IA
El Pentágono está pidiendo a Anthropic que permita al Departamento de Guerra utilizar el producto de inteligencia artificial de la compañía para «todos los fines legales», pero el director ejecutivo Dario Amodei ha sugerido que el gobierno podría potencialmente usar su producto para «vigilancia doméstica masiva» o «armas totalmente autónomas», y que la compañía no estaría dispuesta a permitir tales casos de uso.
El asistente del Secretario de Guerra para Asuntos Públicos, Sean Parnell, declaró en una publicación en X que el departamento no quiere participar en ninguna de esas actividades, pero solicita utilizar la inteligencia artificial de Anthropic para todos los fines legales.
«El Departamento de Guerra no tiene ningún interés en usar IA para la vigilancia masiva de estadounidenses (lo cual es ilegal), ni queremos usar IA para desarrollar armas autónomas que funcionen sin intervención humana», declaró Parnell en la publicación . «Lo que pedimos es lo siguiente: permitir que el Pentágono utilice el modelo de Anthropic para todos los fines legales».
Esta es una solicitud simple y sensata que evitará que Anthropic ponga en peligro operaciones militares críticas y potencialmente ponga en riesgo a nuestros combatientes. No permitiremos que ninguna empresa nos imponga nuestras decisiones operativas. Tienen hasta las 17:01 h (hora del este) del viernes para decidir. De lo contrario, rescindiremos nuestra colaboración con Anthropic y la consideraremos un riesgo para la cadena de suministro de DOW», señaló.
El Departamento de Guerra ha declarado que solo contratará a empresas de inteligencia artificial que acepten «cualquier uso legal» y eliminen las salvaguardas en los casos mencionados. Han amenazado con eliminarnos de sus sistemas si mantenemos estas salvaguardas; también han amenazado con designarnos como un «riesgo para la cadena de suministro» —una etiqueta reservada para los adversarios de EE. UU., nunca antes aplicada a una empresa estadounidense— e invocar la Ley de Producción de Defensa para forzar la eliminación de las salvaguardas —declaró Amodei el jueves— .
Declaró que las «amenazas no cambian nuestra posición: no podemos en conciencia acceder a su petición».
El subsecretario de Guerra para Investigación e Ingeniería, Emil Michael, acusó a Anthropic y Amodei de mentir.
En una publicación en X, Michael llamó a Amodei «un mentiroso» que «tiene un complejo de Dios».
«Lo único que quiere es intentar controlar personalmente a las Fuerzas Armadas de Estados Unidos y no tiene ningún problema en poner en riesgo la seguridad de nuestra nación. El @DeptofWar SIEMPRE cumplirá la ley, pero no se doblegará ante los caprichos de ninguna empresa tecnológica con fines de lucro», afirmó .
En otra publicación , afirmó: «Anthropic miente. El @DeptofWar no realiza vigilancia masiva, ya que eso es ilegal. De lo que hablamos es de permitir que nuestros combatientes usen IA sin tener que llamar a @DarioAmodei para pedir permiso para derribar enjambres de drones enemigos que matarían a estadounidenses».
El secretario de Guerra, Pete Hegseth, volvió a publicar ambos mensajes de Michael.
Es prerrogativa del Departamento seleccionar a los contratistas que mejor se ajusten a su visión. Sin embargo, dado el valor sustancial que la tecnología de Anthropic aporta a nuestras fuerzas armadas, esperamos que lo reconsideren. Nuestra firme preferencia es continuar sirviendo al Departamento y a nuestros combatientes, con las dos salvaguardias solicitadas vigentes. Si el Departamento decide desvincular a Anthropic, trabajaremos para facilitar una transición fluida a otro proveedor, evitando cualquier interrupción en la planificación militar, las operaciones u otras misiones críticas en curso. Nuestros modelos estarán disponibles bajo las amplias condiciones que hemos propuesto durante el tiempo que sea necesario, señaló Amodei en su declaración.
«Seguimos dispuestos a continuar nuestro trabajo para apoyar la seguridad nacional de Estados Unidos», dijo.
Trump ordena la prohibición federal del software antrópico por las restricciones «izquierdistas» al uso de inteligencia artificial militar
El presidente estadounidense, Trump, ordenó a todas las agencias federales que dejaran de usar la IA Claude de Anthropic, alegando la negativa a permitir su uso militar sin restricciones. Ha establecido un plazo de seis meses para su retirada gradual en el Departamento de Defensa.
El presidente de Estados Unidos, Donald Trump, ordenó el viernes que todas las agencias federales dejen de utilizar el software desarrollado por Anthropic , la empresa responsable de crear el modelo de inteligencia artificial Claude.
«Ordeno a todas las agencias federales del gobierno de Estados Unidos que CESEN INMEDIATAMENTE el uso de la tecnología de Anthropic . ¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos!», declaró Trump en una publicación de Truth Social.
Habrá un período de desmantelamiento gradual de seis meses para agencias como el Departamento de Guerra, que utilizan los productos de Anthropic en diversos niveles. Es mejor que Anthropic se organice y colabore durante este período de desmantelamiento, o usaré todo el poder de la presidencia para obligarlos a cumplir, con graves consecuencias civiles y penales, añadió.
Trump justificó su decisión por el «izquierdismo de Anthropic», calificando a la empresa de «locos de izquierda» que intentaron «presionar al Departamento de Guerra y obligarlos a obedecer sus Términos de Servicio en lugar de nuestra Constitución».
«Su egoísmo está poniendo en riesgo vidas estadounidenses, nuestras tropas y nuestra seguridad nacional», añadió.
El gobierno antrópico y estadounidense se enfrentan por el uso limitado de la IA
La tensión ha ido aumentando entre Anthropic y el gobierno de Estados Unidos, ya que la empresa quiere asegurarse de que su software no se utilice para realizar vigilancia masiva de estadounidenses y desarrollar armamento totalmente autónomo.
Según un informe de Axios , el Pentágono exigió un nuevo acuerdo con la empresa de inteligencia artificial para desplegarla para “todos los fines legales”, desde el desarrollo de armas y la recopilación de inteligencia hasta operaciones directas en el campo de batalla.
Esto provocó desacuerdos entre el Pentágono y Anthropic, ya que Claude no está destinado a un uso ofensivo, según las políticas de uso público de Anthropic.
El conflicto principal surgió después de un informe de The Wall Street Journal donde Claude supuestamente fue utilizado, a través de la asociación existente de Anthropic con la firma de software Palantir, en la operación para capturar al expresidente venezolano Nicolás Maduro .
“Todo está sobre la mesa, incluyendo reducir la colaboración con Anthropic o romperla por completo”, declaró un funcionario del Pentágono, según Axios . “Pero tendrá que haber un reemplazo ordenado, si creemos que esa es la solución correcta”.
El Pentágono ahora estaba trabajando con OpenAI, Alphabet (el desarrollador de Gemini de Google) y xAI (desarrollador de GrokAI) para establecer estos contratos más permisivos, de Axios . agregó el informe