Qué pasó

OpenAI y Anthropic están reclutando expertos en riesgos biológicos, químicos y de explosivos ante la creciente preocupación de que sus sistemas de IA puedan ser utilizados para ayudar a crear armas de destrucción masiva. La iniciativa, reportada primero por la BBC, ocurre mientras el Pentágono despliega inteligencia artificial en la guerra con Irán a una escala sin precedentes, y mientras las dos principales empresas de IA se encuentran en lados opuestos de un agrio debate sobre el uso de su tecnología en operaciones militares.

Contratando para el riesgo catastrófico

Anthropic publicó una vacante de "Policy Manager, Chemical Weapons and High Yield Explosives" con un salario entre $245,000 y $285,000, para candidatos con al menos cinco años de experiencia en defensa contra armas químicas, según un aviso de LinkedIn descrito por la BBC. El listado especifica que los solicitantes deben tener conocimiento sobre dispositivos de dispersión radiológica (bombas sucias).

OpenAI, por su parte, recluta para un puesto más senior en su equipo de preparación: un investigador de "Frontier Biological and Chemical Risks" con un salario de hasta $455,000. La descripción pide candidatos con "mentalidad robusta de red-teaming" capaces de poner a prueba las medidas de seguridad de la empresa contra el mal uso.

Estas contrataciones reflejan un reconocimiento creciente de que los modelos de IA pueden proporcionar asistencia significativa a potenciales atacantes. OpenAI advirtió el año pasado que su ChatGPT Agent fue el primer producto que clasificó con capacidad "alta" para bioriesgo, es decir, que podría ayudar a novatos a crear amenazas biológicas o químicas conocidas.

Algunos expertos cuestionan el enfoque mismo. La Dra. Stephanie Hare, investigadora de tecnología y copresentadora del programa AI Decoded de la BBC, señaló que es cuestionable entrenar sistemas de IA con información sensible sobre armas, notando que "no existe ningún tratado internacional ni regulación que gobierne este tipo de trabajo".

IA en el campo de batalla

Las contrataciones ocurren en el contexto de la guerra en Irán, iniciada el 28 de febrero cuando fuerzas de EE.UU. e Israel lanzaron la Operación Epic Fury. El comandante del CENTCOM, Brad Cooper, confirmó el 11 de marzo que las fuerzas estadounidenses utilizan "una serie de sofisticadas herramientas de IA" para análisis de inteligencia, lo que permite a los comandantes procesar vastos conjuntos de datos "en meros segundos".

  • Según el Wall Street Journal, los sistemas de IA ayudaron en la selección de blancos, planificación de misiones y evaluación de daños de batalla a velocidades antes imposibles en los primeros días del conflicto.
  • Bloomberg reportó que el Maven Smart System del Pentágono permitió a EE.UU. atacar 1,000 objetivos en las primeras 24 horas de la guerra.

La fractura Anthropic-Pentágono

Las dos empresas han tomado caminos divergentes con el ejército estadounidense:

  • OpenAI: El CEO Sam Altman anunció el 27 de febrero un acuerdo para desplegar sus modelos en la red clasificada del Pentágono, con salvaguardas que incluyen prohibiciones sobre vigilancia masiva doméstica y armas autónomas.
  • Anthropic: Fue designada un riesgo para la cadena de suministro de seguridad nacional después de negarse a eliminar salvaguardas similares, y ha demandado al Pentágono por dicha designación.

A pesar de la prohibición formal, el Claude AI de Anthropic permanece integrado en sistemas suministrados por Palantir que están siendo utilizados por agencias de seguridad nacional de EE.UU. en el conflicto, según NPR y la BBC.

Por qué importa

La carrera por contratar expertos en armas revela una paradoja central de la IA moderna: cuanto más capaces se vuelven los modelos, más urgente resulta protegerlos contra el peor de los usos posibles. Que las dos empresas líderes en IA estén simultáneamente armando al Pentágono y demandándolo refleja la tensión irresuelta entre innovación, seguridad nacional y responsabilidad corporativa en tiempos de guerra.

Qué mirar ahora

  • Resolución del litigio Anthropic vs. Pentágono
  • ¿Surgirá algún marco regulatorio internacional para el uso de IA en armas?
  • Nuevas revelaciones sobre el alcance del despliegue del Maven Smart System en Irán
  • Reacción del Congreso ante el uso de IA en la selección de blancos militares

#IA #OpenAI #Anthropic #Pentágono #Guerra #Irán #ArmasBiológicas #Seguridad #MavenSmartSystem #Palantir

Fuente

BBC · Yahoo News NZ · Wall Street Journal · Bloomberg · NPR