Pentagono clasifica a Anthropic como riesgo de seguridad nacional
El Pentagono etiqueto oficialmente a Anthropic (creadores de Claude) como riesgo para la cadena de suministro de defensa. La ironia: Claude ya se usa en operaciones militares en Iran.
5 articles found
El Pentagono etiqueto oficialmente a Anthropic (creadores de Claude) como riesgo para la cadena de suministro de defensa. La ironia: Claude ya se usa en operaciones militares en Iran.
OpenAI firmó un contrato de $200M con el Pentágono horas después de que Trump prohibiera a Anthropic. Sam Altman admite que pareció "oportunista" y anuncia enmiendas al acuerdo. 70+ empleados de OpenAI firmaron carta apoyando a Anthropic.
Trump canceló $200M en contratos con Anthropic y la declaró "riesgo de seguridad nacional". Como respuesta, millones descargaron Claude, que llegó al #1 del App Store y hoy sufre caída global.
El presidente Trump prohibio los productos de Anthropic en todo el gobierno federal despues de que la empresa se nego a dar acceso militar sin restricciones a sus modelos de IA. OpenAI firmo un acuerdo con el Pentagono horas despues.
El Pentagono uso Claude de Anthropic en la operacion contra Maduro en Venezuela. Anthropic objeta el uso militar y el contrato de $200M podria cancelarse.