El Departamento de Defensa de los Estados Unidos ha etiquetado recientemente a la compañía de inteligencia artificial Anthropic como "riesgo en cadena de suministro", una medida que afecta profundamente a la empresa y a sus socios tecnológicos. Según fuentes cercanas al gobierno, el Pentágono ha decidido que Anthropic, creadora del modelo de IA Claude, está involucrada en actividades que podrían comprometer la seguridad nacional. Esta decisión, que se considera una "etiqueta roja" para la compañía, implica que cualquier empresa que contrate con el gobierno no podrá colaborar con Anthropic.
Dean Ball, quien colaboró en la elaboración de la política de inteligencia artificial del gobierno de Trump, ha expresado su sorpresa ante esta acción del Pentágono. Para él, el problema radica en que Anthropic ha estado trabajando en aplicaciones de IA que, según su propio análisis, podrían ser utilizadas para sistemas de armas autónomos y vigilancia masiva en Estados Unidos. Ball señala que el Pentágono ha exigido que Anthropic acepte términos que, en su opinión, violan los principios éticos de la inteligencia artificial.
La medida tomada por el Departamento de Defensa ha generado una respuesta inmediata en el sector tecnológico. Muchas empresas de tecnología defensiva, como Amazon, que proporcionan infraestructura para modelos de IA como los de Anthropic, están reevaluando sus relaciones con la compañía. Estos cambios afectan no solo a Anthropic, sino también a toda la cadena de suministro de aplicaciones de IA en el ámbito militar.
Analistas tecnológicos destacan que la etiqueta de riesgo en cadena de suministro es una herramienta que el gobierno usa para aislar a empresas que, a su juicio, podrían tener conexiones con actividades no autorizadas. En este caso, el Pentágono ha argumentado que Anthropic ha sido utilizada para crear herramientas que podrían ser empleadas en sistemas de vigilancia y armas autónomas.
Esta decisión no solo afecta a Anthropic, sino que también representa un ejemplo de cómo las políticas gubernamentales están comenzando a interactuar con las innovaciones tecnológicas en el ámbito de la inteligencia artificial. Los expertos en seguridad informática advierten que este tipo de medidas podrían llevar a una ruptura en la colaboración entre el sector privado y el gobierno en el desarrollo de tecnologías de IA.