Tecnología

Expertos de Google, Microsoft y Facebook sugieren al Pentágono que controle el uso de inteligencia artificial

El informe de la denominada Comisión de Innovación en Defensa se publica en medio de la creciente preocupación sobre los posibles riesgos del uso de inteligencia artificial en el ámbito militar.


Domingo, 03 de Noviembre de 2019

El informe de la denominada Comisión de Innovación en Defensa se publica en medio de la creciente preocupación sobre los posibles riesgos del uso de inteligencia artificial en el ámbito militar.

La Comisión de Innovación en Defensa (DIB, por sus siglas en inglés), organización que asesora al Pentágono compuesta por miembros de Google, Microsoft y Facebook, y que se encarga de la incorporación de innovaciones tecnológicas de Silicon Valley en el Ejército de EE.UU., ha publicado este jueves un conjunto de “directrices éticas” para el uso de la inteligencia artificial (IA) por parte del Departamento de Defensa.

Los principios del DIB tienen carácter de recomendaciones y no son legalmente vinculantes, por lo que recae en el Pentágono determinar si van a llevarse a la práctica y cómo debe ocurrir.

“Ahora es el momento, en esta etapa temprana del resurgimiento del interés en la IA, de mantener discusiones serias sobre las normas de desarrollo y el uso de la IA en un contexto militar, mucho antes de que haya un incidente”, reza el documento.

Aunque el texto no fija límites estrictos, como esperarían todos aquellos que se oponen a la aplicación de IA en la esfera militar, sí que establece un conjunto de objetivos éticos que el Departamento de Defensa debería tener en cuenta a la hora de desarrollar nuevos sistemas con inteligencia militar.

En particular, los especialistas de la Junta barajan cinco principios clave: la utilización de IA en el Ejército de EE.UU. siempre debe ser responsable (y bajo control humano permanente), equitativa (para no causar daño no intencionado a las personas), rastreable (para que los expertos técnicos tengan una comprensión adecuada de la tecnología), fiable (para que la seguridad de los sistemas sea probada y garantizada) y gobernable (los dispositivos tienen que disponer de un mecanismo de desactivación por si se descubre que actúan de forma inadecuada).