Boicot a los bots asesinos

Los informes de que el 'Instituto Avanzado de Ciencia y Tecnología de Corea' (KAIST), con sede en una universidad estatal, ha estado trabajando en la investigación de robots militares con la compañía de defensa Hanwa han resultado en amenazas de boicot por parte de más de 50 investigadores de IA de 30 países.

¿Robots asesinos?

Aunque la amenaza del boicot a KAIST parece haber sido efectiva para exponer y hacer que KAIST acepte detener cualquier trabajo relacionado con el desarrollo de armas letales autónomas (robots asesinos), la historia ha planteado dudas sobre las líneas rojas éticas y la regulación. de la tecnología en esta área.

KAIST abrió su centro de investigación para la convergencia de la defensa nacional y la inteligencia artificial el 20 de febrero, con la intención de proporcionar una base para el desarrollo de tecnología de defensa nacional. Se informó que un anuncio ahora eliminado sobre el trabajo del centro destacó un enfoque en áreas como sistemas de comando y decisión basados ​​​​en IA, algoritmos de navegación, vehículos submarinos no tripulados a gran escala, sistemas de entrenamiento de aviones inteligentes basados ​​​​en IA, así como como tecnología inteligente de seguimiento y reconocimiento de objetos.

Intercambio rápido de cartas

Se informó que casi inmediatamente después de una carta que contenía las firmas de más de 50 investigadores de IA que expresaban su preocupación por los supuestos planes de KAIST para desarrollar inteligencia artificial para armas, KAIST envió su propia carta diciendo que no desarrollaría ningún arma autónoma letal.

El presidente de la universidad, Shin Sung-chul, continuó diciendo que no se habían realizado actividades de investigación que fueran contrarias a la dignidad humana, incluidas las armas autónomas que carecen de un control humano significativo. También se informa que Shin Sung-chul dijo que KAIST en realidad había estado tratando de desarrollar algoritmos para "sistemas logísticos eficientes, sistemas de entrenamiento de navegación y aviación no tripulados", y que KAIST es muy consciente de las preocupaciones éticas en la aplicación de todas las tecnologías, incluida la IA.

¿Quién/Qué es Hanwha Systems?

Hanwha Systems, el socio designado del mundo militar/de defensa en el proyecto, es un importante fabricante de armas con sede en Corea del Sur. La empresa es conocida por fabricar municiones en racimo, que están prohibidas en 120 países en virtud de un tratado internacional.

Prohibición absoluta esperada

Para acompañar las bienvenidas garantías de KAIST de que no investigará los llamados "robots asesinos", se espera ampliamente que la próxima reunión de los países del Consejo de Seguridad de la ONU en Ginebra, Suiza, pida una prohibición total de las armas de IA. investigación y robots asesinos.

Ya existe

Además del dron militar Taranis, construido por BAE Systems del Reino Unido, que técnicamente puede operar de forma autónoma, ya existen 'robots' con aplicaciones militares. Por ejemplo, Dodaam Systems de Corea del Sur fabrica un “robot de combate” totalmente autónomo, que en realidad es una torre estacionaria que puede detectar objetivos a una distancia de hasta 3 km. Se informa que este 'robot' ya ha sido probado en la frontera militarizada con Corea del Norte, y que fue comprado por los Emiratos Árabes Unidos y Qatar.

¿Qué significa esto para tu negocio?

Muchos de los temores clave sobre la IA y el aprendizaje automático se centran en que las máquinas aprendan a tomar decisiones autónomas que resulten en que los humanos resulten heridos o atacados. Por lo tanto, no sorprende que los informes de posibles investigaciones sobre el desarrollo de robots de IA armados y militarizados jueguen con temores como los expresados ​​por Tesla y el CEO de SpaceX, Elon Musk, quien describió la IA como un "riesgo fundamental para la existencia de la civilización".

Incluso con la torreta de combate autónoma existente en Corea, se informa que existen "restricciones autoimpuestas" que requieren que un ser humano realice un ataque letal, es decir, que tome la decisión real del ataque. Muchos temen que el desarrollo de cualquier robot de este tipo represente una especie de caja de Pandora, y que se necesiten regulaciones estrictas y salvaguardas integradas para evitar que los 'robots' tomen decisiones potencialmente desastrosas por sí mismos.

Debe recordarse que la IA presenta muchas oportunidades potencialmente beneficiosas para la humanidad cuando se usa de manera ética y productiva. Incluso en un entorno militar, por ejemplo, un robot de IA que pueda, por ejemplo, eliminar minas de manera efectiva (en lugar de poner en peligro a más humanos) tiene que ser una buena idea.

El hecho es que la IA actualmente tiene aplicaciones mucho más valiosas, positivas y útiles para las empresas en términos de reducción de costos, ahorro de tiempo y habilitación de la ampliación con economías integradas.

 

Foto por eric krull on Unsplash