El Pentágono busca apropiarse de la IA de Anthropic
El secretario de Defensa estadounidense, Hegseth, desea tener acceso completo a la inteligencia artificial de Anthropic. El debate se centra en sistemas de armas autónomas capaces de tomar sus propias decisiones. El secretario amenaza con medidas severas si Anthropic no coopera.
El asistente de inteligencia artificial de Anthropic, Claude, ya ha causado un gran revuelo. El programa está diseñado más para empresas que para particulares y se utiliza a menudo para tareas de programación. Claude es especialmente bueno optimizando procesos empresariales. Esto provocó pánico en los mercados bursátiles a finales de enero.
¿Claude Software quedará pronto obsoleto?
El siguiente escenario circuló en la bolsa: Gracias a la gran habilidad de Claude con los sistemas informáticos, las empresas pronto podrían prescindir de software especializado. Claude gestiona las fábricas, programa a los empleados y redacta las facturas. Según este escenario, los programas complejos ya no serían necesarios. Claude lo tiene todo bajo control. Esto no auguraba nada bueno para las acciones de muchas empresas de software. En Alemania, por ejemplo, el precio de las acciones de SAP se desplomó un 20 % en tan solo unos días.
Antrópico y la intervención militar en Venezuela
Anthropic no solo puede gestionar eficazmente los procesos corporativos, sino también los eventos en el campo de batalla. Anthropic ha recibido 200 millones de dólares en financiación del Departamento de Defensa de EE.UU, y el Pentágono utiliza activamente sus servicios. Según informa la BBC , el ejército estadounidense utilizó a Claude en enero durante la operación para capturar al expresidente venezolano Nicolás Maduro.
El Pentágono quiere acceso incondicional a Claude
Según diversos informes, el Departamento de Defensa de EE. UU. está muy impresionado con Anthropic. Se dice que Claude está muy por delante de los modelos de otras empresas de IA. Se considera el modelo más potente para tareas sensibles de defensa e inteligencia, según el Pentágono.
Ahora el Departamento quiere más: acceso total a la IA. Pero la empresa no está dispuesta a concederlo, según informa el sitio web de noticias estadounidense Axios. Anthropic establece dos límites principales: su modelo no debe utilizarse para la vigilancia masiva de estadounidenses. Y Claude no debe utilizarse para el desarrollo de armas que disparen sin intervención humana .
Tras las reuniones en el Pentágono: Ultimátum hasta el viernes
El secretario de Defensa, Pete Hegseth, convocó al director ejecutivo de Anthropic, Dario Amodei, para una conversación franca. Según Axios, Hegseth declaró, en esencia, que no permitiría que ninguna empresa dictara los términos de las decisiones operativas del Pentágono. Un funcionario del Departamento fue aún más explícito en una entrevista sobre la colaboración con Anthropic: «La única razón por la que seguimos hablando con estas personas es porque las necesitamos, y las necesitamos ahora». Los informes indican que Amodei tiene hasta el viernes para dar marcha atrás.
Hegseth amenaza con medidas drásticas
Si Amodei se niega a aceptar, el Pentágono pretende rescindir su contrato con la empresa, entre otras medidas. Además, Anthropic podría verse obligada, en virtud de la Ley de Producción de Defensa de 1950, a lanzar una versión de Claude para uso militar. Una tercera medida punitiva sería designar a Anthropic como un riesgo para la cadena de suministro. Esto obligaría a muchas otras empresas que colaboran con el Pentágono a distanciarse de Anthropic.
Sin embargo, el Departamento de Defensa podría no estar en una posición muy sólida, ya que depende demasiado de Anthropic como para arriesgarse a una ruptura. Hay informes de que Claude ya está tan integrado en los sistemas informáticos del Pentágono que será extremadamente difícil destituirlo.
