El propósito de las pautas es asegurarse de que los contratistas de tecnología se apeguen a los principios éticos para la IA, dice Goodman. El Departamento de Defensa anunció estos principios el año pasado, luego de un estudio de dos años encargado por la Junta de Innovación de Defensa, un panel asesor de investigadores y empresarios líderes en tecnología establecido en 2016 para llevar la chispa de Silicon Valley al ejército de EE. UU. La junta estuvo presidida por el ex director ejecutivo de Google, Eric Schmidt, hasta septiembre de 2020, y sus miembros actuales incluyen a Daniela Rus, directora del Laboratorio de Inteligencia Artificial y Ciencias de la Computación del MIT.

Sin embargo, algunos críticos cuestionan si el trabajo promete alguna reforma significativa.

Durante el estudio, la junta consultó a una serie de expertos, incluidos críticos vocales del uso de la inteligencia artificial por parte de los militares, como miembros de la Campaign for Killer Robots y Meredith Whittaker, una exinvestigadora de Google que ayudó a organizar las protestas del Proyecto Maven.

Whittaker, quien ahora es director de la facultad del AI Now Institute de la Universidad de Nueva York, no estuvo disponible para hacer comentarios. Pero según Courtney Holsworth, portavoz del instituto, asistió a una reunión, donde discutió con miembros de alto nivel de la junta, incluido Schmidt, sobre la dirección que estaba tomando. “Ella nunca fue consultada de manera significativa”, dice Holsworth. “Afirmar que ella lo fue podría leerse como una forma de lavado de la ética, en la que la presencia de voces disidentes durante una pequeña parte de un largo proceso se utiliza para afirmar que un resultado dado tiene una amplia aceptación de las partes interesadas relevantes”.

Si el Departamento de Defensa no tiene una amplia aceptación, ¿pueden sus pautas ayudar a generar confianza? “Habrá personas que nunca estarán satisfechas con ningún conjunto de pautas éticas que elabore el Departamento de Defensa porque encuentran la idea paradójica”, dice Goodman. “Es importante ser realista sobre lo que las pautas pueden y no pueden hacer”.

Por ejemplo, las directrices no dicen nada sobre el uso de armas autónomas letales, una tecnología que, según algunos activistas, debería prohibirse. Pero Goodman señala que las regulaciones que rigen dicha tecnología se deciden más arriba en la cadena. El objetivo de las pautas es facilitar la construcción de IA que cumpla con esas regulaciones. Y parte de ese proceso es hacer explícita cualquier inquietud que tengan los desarrolladores externos. “Una aplicación válida de estas pautas es decidir no seguir un sistema en particular”, dice Jared Dunnmon en la DIU, quien fue coautor de las mismas. “Puedes decidir que no es una buena idea”.