Anthropic demanda al gobierno de EEUU por una disputa sobre el uso de su IA
La startup californiana Anthropic demandó el lunes al gobierno del presidente Donald Trump por considerar que la penalizó por negarse a autorizar el uso militar sin límites de sus modelos de inteligencia artificial Claude.
El Departamento de Defensa estadounidense designó la semana pasada a Anthropic como un "riesgo" para la cadena de suministro de seguridad nacional, después de que la empresa rechazara la utilización de su tecnología para vigilancia masiva o fines bélicos.
En la demanda de 48 páginas, presentada ante un tribunal federal de San Francisco, Anthropic solicita que dicha designación se revierta y se declare ilegal.
La compañía sostiene que se fundó sobre la convicción de que su IA debe "usarse de una manera que maximice los resultados positivos para la humanidad" y debe "ser la más segura y la más responsable".
"Anthropic presenta esta demanda porque el Gobierno federal ha tomado represalias por expresar ese principio", añade en su escrito.
Anthropic es la primera empresa estadounidense calificada de "riesgo" por el gobierno federal, una consideración reservada a entidades de países rivales, como el gigante tecnológico chino Huawei.
La designación exige a los proveedores y contratistas de defensa que certifiquen que no utilizan los modelos de Anthropic en su trabajo con el Pentágono.
- "Consecuencias enormes" -
Fundada en 2021 por los hermanos Dario y Daniela Amodei, ambos exempleados de OpenAI, creadora del ChatGPT, Anthropic se ha posicionado en la carrera de la IA como una alternativa centrada en la seguridad.
"Las consecuencias de este caso son enormes", ya que el Gobierno "pretende destruir el valor económico creado por una de las empresas privadas de más rápido crecimiento del mundo", afirma la demanda.
La disputa estalló después de que Anthropic enfureciera al jefe del Pentágono, Pete Hegseth, al insistir en que su tecnología no debía utilizarse para vigilar a los ciudadanos o para sistemas de armas totalmente autónomos.
Posteriormente, Trump ordenó a todas las agencias federales que dejaran de utilizar la tecnología de Anthropic.
Hegseth designó a Anthropic como un "Riesgo para la cadena de suministro de la seguridad Nacional" y ordenó que ningún contratista, proveedor o socio militar "puede realizar ninguna actividad comercial con Anthropic". Concedió por otra parte un período de transición de seis meses para el propio Pentágono.
El diferendo entre el Pentágono y Anthropic se desató días antes de la ofensiva militar estadounidense contra Irán.
Claude es el modelo de IA de vanguardia más ampliamente desplegado por el Pentágono y el único modelo de este tipo que opera actualmente en los sistemas clasificados del Departamento de Defensa.
En su demanda, Anthropic asegura que las medidas adoptadas en su contra violan exceden la autoridad legal del Pentágono y violan derechos constitucionales.
"La Constitución no permite que el gobierno utilice su enorme poder para castigar a una empresa por su discurso", señala el texto.
E.Janssens--JdB