«Estos son mis principios. Si no le gustan, tengo otros». La conocida cita de Groucho Marx parece haberse convertido en el lema de las empresas de inteligencia artificial (IA), que hace poco se oponÃan al uso de la IA con fines bélicos. Sin embargo, esto ha cambiado por una razón evidente: el dinero.
Google. Hace apenas unas horas discutÃamos cómo Google ha dejado de oponerse al uso de inteligencia artificial para propósitos bélicos. La compañÃa ha eliminado de sus «principios para la IA» la sección que indicaba que no aplicarÃan esta tecnologÃa «a tecnologÃas que causen o puedan causar daño».
Eran otros tiempos. En abril de 2018, Google enfrentó una polémica al descubrirse su colaboración con el Pentágono en un programa de defensa llamado Project Maven. Esto generó una protesta de más de 3.000 empleados de Google a través de una carta abierta, lo que llevó a la empresa a cancelar el proyecto.
Don’t be evil. Ese acontecimiento parecÃa reafirmar el lema original de Google «Don’t be evil» («No seas malvado»). Sin embargo, este mensaje fue criticado a medida que Google se transformaba de una prometedora startup a una empresa donde las finanzas eran la prioridad.
Las grandes de la IA quieren aprovechar el filón. Google no es la única, ni será la última en considerar el desarrollo de sistemas de IA con fines militares. Previamente, Anthropic se asoció con Palantir, al igual que Microsoft y AWS, para ofrecer su modelo Claude a agencias de inteligencia y defensa de EE. UU., mientras que Meta anunció términos similares. OpenAI también ha ajustado sus términos de uso y está en negociaciones con el Departamento de Defensa.
Mucho dinero en juego (pero podrÃa ser mucho más). El gasto militar permanece elevado, y los contratos de EE. UU. relacionados con sistemas de IA aumentaron un 1.200% entre 2022 y 2023. Se prevé que en 2025 el gasto, estimado en 1.800 millones de dólares, se mantenga al menos igual, con una prioridad alta en el uso de esta tecnologÃa. Aunque comparado con el presupuesto militar de EE. UU. de 830.000 millones de dólares desde 2023, es casi residual.
Cuidado con el botón rojo. En septiembre de 2024, se celebró la cumbre REAIM en Corea del Sur sobre el potencial uso bélico de sistemas de IA. La gran pregunta para los paÃses asistentes fue si las máquinas deberÃan tomar decisiones sobre el uso de armas nucleares. Con la excepción de China, los demás paÃses coincidieron en que solo un ser humano deberÃa poder pulsar el botón rojo. Rusia, vetada por la Guerra de Ucrania, no participó en la cumbre.
Por un uso ético de la IA en conflictos bélicos. Los paÃses en la cumbre firmaron un acuerdo estableciendo que las capacidades de IA en el ámbito militar deben aplicarse conforme a la legislación nacional e internacional. Estas aplicaciones deben ser éticas y centradas en el ser humano.
Pero las armas con IA llevan tiempo en el campo de batalla. La tecnologÃa es ya un componente integral en conflictos como la Guerra de Ucrania. Además de encontrarse con dispositivos como Steam Decks que controlan ametralladoras, en el conflicto se emplean drones autónomos con IA capaces de fijar objetivos para atacarlos.
¿Y la regulación, qué? La Ley de la IA de la Unión Europea exime (artÃculo 2, sección 3) de esas obligaciones a los sistemas de IA usados exclusivamente para fines militares, de defensa o seguridad nacional, ya sea por entidades públicas o privadas.
Qué dice el Ministerio de Defensa de España. En un comunicado reciente, el Ministerio de Defensa de España se refirió a la carrera de la IA militar y «el maratón de las normas humanas para regularla». Reafirmaron las conclusiones de la cumbre REAIM: la IA se puede usar con fines militares, pero siempre asegurando que no amenace la paz, seguridad, estabilidad mundial, ni violen los derechos humanos, y que el control humano no se eluda.
Imagen | Airman Magazine | Fuerza Aérea de Estados Unidos
Deja una respuesta