Imagen generada con Gemini
Hace dos meses, Estados Unidos secuestró al presidente de Venezuela, Nicolás Maduro. La operación ha sido ampliamente explicada. Un detalle es que utilizaron Claude, el chatbot de IA de Anthropic, para su planificación. En aquel momento, la empresa creadora rechazó su uso con fines militares. La situación ha escalado y ha cambiado el panorama del uso de IA en Estados Unidos, con ChatGPT en el centro de las críticas.
En consecuencia, el gobierno de Trump prohibió el uso de Claude en agencias gubernamentales. La empresa se ha negado concretamente a que sus modelos fueran usados para tareas de vigilancia doméstica masiva y fabricación de armamento. El secretario de Guerra, Pete Hegseth, categorizó a Anthropic como riesgo para la cadena de suministro. Esa designación corta toda relación entre ambos entes y puede suponer una declaración de guerra.
“Los chiflados de izquierda de Anthropic han cometido un error desastroso al intentar presionar al Departamento de Guerra y obligarlo a obedecer sus Términos de Servicio en lugar de nuestra constitución. Su egoísmo está poniendo en riesgo vidas estadounidenses (…) a nuestras tropas y a nuestra seguridad nacional”, escribió el presidente en Truth Social.
“Creemos que la IA puede socavar, en lugar de defender, los valores democráticos. Algunos usos simplemente exceden los límites de lo que la tecnología actual puede hacer de forma segura y fiable. Dos de estos casos de uso nunca se han incluido en nuestros contratos con el Departamento de Guerra, y creemos que no deberían incluirse ahora: la vigilancia doméstica masiva y las armas totalmente autónomas”, publicó Dario Amodei, CEO de Anthropic, en su sitio web.
Tras el caso entre los creadores de Claude y el gobierno, OpenAI selló un trato con el Departamento de Guerra estadounidense, ocupando la vacante. Aunque el CEO Sam Altman dijo que no sería usado para vigilancia o fabricación de armamento, expertos del sector lo miran con escepticismo. Y los usuarios ya han ido migrando de ChatGPT a Claude, que ha incluido una opción para exportar toda la conversación con otro chatbot.
La combinación de rupturas y acuerdos ha generado un efecto dominó en el cual Claude ha pasado a ser la app número uno en la tienda de aplicaciones de Apple en Estados Unidos. Por otra parte, ha surgido en Internet un movimiento de cancelación a ChatGPT debido a su acuerdo con el poder militar estadounidense.
La protección de datos siempre ha sido un punto rojo en el uso de IA generativa. Ahora, esa preocupación no solo se traslada a que esa sensible información se use para el entrenamiento de modelos. Un cúmulo importante de datos individuales podría caer en manos de un gobierno que no duda en usar la fuerza militar cuando es necesario.
El Pentágono puede usar ChatGPT en su red de instalaciones, pero el acuerdo no refleja un acceso al historial de chats personales. Se declara que el uso será “para todos los fines legales”. ¿Qué pasa si el gobierno decide legalizar la vigilancia? Además, en clausula se incluye el “no uso intencional”, lo que deja una zona gris para empleo indirecto o a través de un conjunto de datos.
Flash del día

NVIDIA anunció hoy un compromiso, junto con Booz Allen, BT Group, Cisco, Deutsche Telekom, Ericsson, MITRE, Nokia, OCUDU Ecosystem Foundation, ODC, SK Telecom, SoftBank Corp. y T-Mobile, para construir la próxima generación de redes inalámbricas del mundo sobre plataformas nativas de IA, abiertas, seguras y confiables.
La iniciativa representa un compromiso compartido para garantizar que la infraestructura 6G —la base de la conectividad mundial del futuro— sea abierta, inteligente y resiliente, y que impulse la innovación y proteja la confianza global.
Prompt de la semana

Designa un entrenamiento personalizado con este prompt de IA:
“Crea un plan de entrenamiento [principiante/intermedio] para alguien que quiera [perder peso/tonificar/construir músculo] con [días a la semana] disponible y acceso a [gimnasio/casa/sin equipo]. Incluye conjuntos, repeticiones y períodos de descanso para cada sesión. “
