Trump prohíbe uso de IA de Anthropic en agencias federales tras negar acceso al Pentágono

Lectura de 6 min

Trump veta a Anthropic por rechazar abrir su sistema de IA al Pentágono

El presidente de Estados Unidos, Donald Trump, ha ordenado a todas las agencias federales que suspendan el uso de la tecnología de Anthropic, una destacada empresa de inteligencia artificial, tras la negativa de la compañía a conceder acceso total de su modelo Claude al Departamento de Defensa. La decisión, anunciada a través de la red social Truth Social, marca un nuevo capítulo en la tensión entre el gobierno estadounidense y las grandes tecnológicas en torno al uso militar de la inteligencia artificial.

Una orden presidencial sin precedentes

En un mensaje publicado en su plataforma, Trump calificó a Anthropic como una “empresa de IA radical de izquierda” y exigió el cese inmediato de la utilización de sus productos en todas las dependencias federales. “No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos”, declaró el mandatario, quien también estableció un periodo de transición de seis meses para que agencias como el Departamento de Defensa sustituyan la tecnología de la compañía.

El presidente advirtió que, de no colaborar Anthropic durante este proceso, podría emplear “todo el poder de la presidencia” para obligar a la firma a cumplir con las órdenes, implicando posibles consecuencias civiles y penales.

El desencuentro: IA, defensa y valores democráticos

La raíz del conflicto reside en las condiciones impuestas por Anthropic para el uso de su modelo de inteligencia artificial, Claude. La empresa ha solicitado garantías al Pentágono de que su tecnología no será utilizada ni en armamento autónomo ni en labores de espionaje contra ciudadanos estadounidenses. Por su parte, el Departamento de Defensa busca emplear la IA en “todos los casos de uso legal”, sin aceptar las limitaciones propuestas.

- Advertisement -

Anthropic, fundada por exempleados de OpenAI, argumenta que ceder en estos puntos sería “incompatible con los valores democráticos”, según anunció en un comunicado. El desacuerdo, que se ha prolongado durante meses, es visto en Estados Unidos como una prueba crucial para definir los límites éticos y legales del uso de inteligencia artificial en el ámbito militar.

  • El Pentágono estableció un plazo límite para que Anthropic aceptara sus condiciones.
  • La empresa se negó a flexibilizar sus restricciones, arriesgando su relación comercial con el Gobierno.
  • El Departamento de Defensa podría calificar a Anthropic como un riesgo para la cadena de suministro.

Reacción del Pentágono y debate en el sector tecnológico

Desde el Pentágono, el portavoz principal Sean Parnell negó rotundamente que se busque utilizar la inteligencia artificial para vigilancia masiva o para desarrollar armas totalmente autónomas sin intervención humana. “El Departamento de Defensa no tiene ningún interés en emplear la IA para tales fines, que además serían ilegales”, aseguró en la red social X.

La disputa ha dividido a responsables militares, expertos tecnológicos y legisladores. Mientras algunos consideran que la inteligencia artificial podría ser una herramienta crucial en defensa, otros insisten en la necesidad de imponer límites claros para evitar abusos y proteger los derechos civiles.

El papel de OpenAI y nuevos acuerdos en negociación

En paralelo, OpenAI —la compañía detrás de ChatGPT— ha confirmado estar negociando con el Departamento de Defensa para desplegar sus modelos de inteligencia artificial en entornos clasificados. Según The Wall Street Journal, aún no se ha cerrado ningún acuerdo y las conversaciones podrían fracasar.

Sam Altman, director ejecutivo de OpenAI, manifestó en una nota interna a sus empleados que la empresa solo consideraría colaborar bajo condiciones estrictas, excluyendo cualquier uso ilegal o problemático, como la vigilancia interna y el desarrollo de armas ofensivas autónomas. Altman también expresó su deseo de mediar en el conflicto entre Anthropic y el Pentágono para reducir la tensión y encontrar soluciones responsables.

- Advertisement -
  • OpenAI busca establecer “líneas rojas” en el uso de su tecnología para defensa.
  • La empresa propone mecanismos técnicos, como limitar el uso a plataformas en la nube, para impedir aplicaciones no deseadas.

¿Hacia dónde va el desarrollo de la inteligencia artificial militar?

La controversia entre el gobierno estadounidense y Anthropic se presenta como un caso emblemático del debate global sobre el papel de la inteligencia artificial en el ámbito militar. Chris Miller, ex secretario interino de Defensa, calificó la situación como “un aviso sobre el futuro de la inteligencia artificial y su uso en el campo de batalla”, subrayando que será una prueba clave para el sector tecnológico y sus valores.

La cuestión de fondo es si la inteligencia artificial debe emplearse sin restricciones en defensa o si, por el contrario, los principios éticos y democráticos deben imponer límites claros. Por el momento, la decisión de Trump marca un hito en la relación entre el Estado y las empresas tecnológicas, y anticipa un debate que probablemente se intensificará en los próximos años.

Nota:

Los contenidos publicados en este sitio han sido generados y/o reelaborados mediante el uso de herramientas de inteligencia artificial.

elpuebloinforma.com declina toda responsabilidad, directa o indirecta, por eventuales errores, inexactitudes, omisiones u otras irregularidades presentes en los textos.

El usuario reconoce que dichos contenidos tienen exclusivamente fines informativos y no pueden sustituir en ningún caso fuentes oficiales ni asesoramientos profesionales.

Compartir este artículo
No hay comentarios