lunes, 28 de junio de 2021

¿Por qué hay ALERTAS SOBRE LA CREACIÓN de ROBOTS ASESINOS. Deberían CREAR ROBOTS que promuevan la PAZ y NO la MUERTE, ¿SOMOS AUTO DESTRUCTIVOS los HUMANOS?_

 

Regulación de las armas autónomas letales:

La militarización de la inteligencia artificial es una preocupación creciente. La perspectiva de armas que puedan seleccionar y atacar a un objetivo por sí solas aumenta las alarmas… La perspectiva de máquinas con la discreción y el poder de quitar vidas humanas es moralmente repugnante.



Dado el rápido avance en el desarrollo de robots militares y los peligros que entrañan para la paz y seguridad internacional y los civiles en la guerra, hacemos un llamamiento a la comunidad internacional para comenzar un debate sobre un régimen de control de armas para reducir la amenaza de estos sistemas.

Cada uno de estos campos de aplicación tiene sus preocupaciones éticas, legales y sociales, pero ninguna tan trascendental como su implementación en el campo de batalla, donde se puede arrebatar la vida de un ser humano.

¿Qué implica dar a las máquinas la autoridad para decidir sobre la vida y la muerte? La implementación de la IA para el desarrollo de armas autónomas letales promete reducir daños colaterales y bajas civiles. Al mismo tiempo, se envía al campo de batalla a computadoras en vez de soldados.



Pero, como decíamos más arriba, esto es un arma de doble filo.

A principios del 2018 el Secretario General de Naciones Unidas, Antonio Guterres, llamó la atención sobre los peligros del uso de la IA en contextos militares:

Muchas tecnologías emergentes presentan desafíos éticos, legales, sociales y políticos. Nos referimos a los recientes avances en inteligencia artificial (IA), investigación genómica, nanotecnología, robótica, ciencias de la computación y neurociencia aplicada.

Juntas, estas tecnologías pueden manipular los átomos de la materia física, la información digital y biológica (ADN) y las células nerviosas. Esta convergencia "nano-info-bio" y su aplicación en un contexto militar puede transformar la forma en la que los seres humanos entran en guerra.

Una de las mayores preocupaciones éticas es el uso dual de la investigación científica con propósitos militares. Muchos científicos se sienten culpables por haber recibido financiación del ejército para llevar a cabo sus experimentos. Muchos otros rehusaron colaborar:



John Napier (1550-1617), matemático escocés y fundador de la teoría de los logaritmos, bosquejó el diseño de una nueva forma de artillería que luego ocultó.

Norbert Wiener (1894-1964), padre de la cibernética que trabajó durante la Segunda Guerra Mundial en el control y guía de misiles, renegó de su participación. Prometió no volver a publicar nada más sobre el tema.

En la actualidad, Google se retiró de una puja por un contrato multimillonario con el Departamento de Defensa de los EE UU para crear computación en la nube.

Sin embargo, el potencial beneficio de desarrollar tecnologías con usos civiles y comerciales, pero también militares, no escapa a la atención de científicos y empresas. Principalmente porque en un entorno de escasos recursos financieros no se puede cerrar la puerta a los fondos militares. La alternativa es dejar la carrera investigadora.


Máquinas que ayuden a jueces y médicos:

La IA tiene como objetivo crear máquinas inteligentes, pero también entender mejor la inteligencia biológica. Los investigadores no tardaron mucho en darse cuenta de que, en lugar de crear computadoras a las que entrenar con grandes cantidades de información, era mejor darles la capacidad de aprender sin un programa explícito.

Así nacieron el "aprendizaje automático" (machine learning) y una técnica dentro de este subcampo llamada "aprendizaje profundo" (deep learning), en la que se desarrollan "redes neuronales". En otras palabras, nodos computacionales interconectados entre sí que imitan la capacidad del cerebro humano de percibir, procesar y trasmitir información.

El aprendizaje automático ha mejorado gracias a la gran cantidad de información (big data) de la que disponemos en la actualidad, gracias sobre todo a internet. La IA puede ofrecer diagnósticos fiables en medicina sobre la base de los síntomas de los pacientes y tomar decisiones en consecuencia, detectar anomalías en imágenes con mayor fiabilidad que radiólogos o promover una medicina de precisión.

En el derecho, la IA puede procesar miles de sentencias en cuestión de milisegundos y encontrar patrones específicos gracias a sofisticados algoritmos de procesamiento del lenguaje natural (escrito) mucho mejor que abogados o jueces humanos.

La IA aplicada al transporte y la movilidad nos ofrece los vehículos autónomos o coches sin conductor que mejoran la seguridad y el confort de los usuarios reduciendo la siniestralidad.

No hay comentarios:

Publicar un comentario