Drones asesinos

0029_dron_drones_predator_estados_unidos_01

Según cifras de Avizora, el 2010 fue el año más letal en el uso de vehículos aéreos sin tripulación. Todo esto en el marco de la guerra en Afganistán, donde el uso de robots asesinos es una realidad cotidiana. Drones cargados con el armamento suficiente para destruir un pequeño poblado sobrevuelan las tierras rebeldes de Medio Oriente.

La situación es terrible.

Pero se puede poner peor.

Imagínense pequeños drones que puedan tener acceso a sus recámaras, cargados con pequeños proyectiles capaces de causarle la muerte a una o dos personas y además están equipados con la última tecnología de Inteligencia Artificial (IA) para detectar blancos específicos.

Ahora imagínense miles de ellos invadiendo nuestras ciudades…

Este cortometraje nos presenta un futuro distópico no muy alejado de la realidad. De hecho, al final, nos podemos dar cuenta que se trata de una campaña para la regulación del desarrollo de la IA con fines militares, impulsada por el profesor de ciencias de la computación de Berkeley, Stewart Russel.

Hablar de robots inteligentes dispuestos a matar y destruir poblaciones enteras no es un tema menor, y para contribuir al debate propongo acercarnos a la literatura de Isaac Asimov, particularmente al relato de 1942: Runaround, en donde por primera vez aparecen publicadas las tres leyes de la robótica, el eje ético que regula el comportamiento de las máquinas:

  1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

En el imaginario de Asimov los robots representan una extensión del hombre y las tres leyes su código moral. Las máquinas siempre deberán de estar al servicio de la humanidad y nunca atentar en contra de ella, a pesar de su propia aniquilación. Si un robot regido por los principios de las tres leyes y equipado con la más avanzada IA recibiera la orden de matar a una persona, el conflicto generado entra la segunda y la primera ley dañaría gravemente el cerebro positrónico y mataría al robot en cuestión de minutos.

Sin embargo, en nuestra realidad, la tecnología no ha llegado a ostentar esa utópica autonomía moral. Las máquinas letales que hoy existen están al servicio del mejor postor y es por esta razón que el profesor Russel hace un llamado urgente al debate público, un debate que tenga como finalidad establecer los lineamientos éticos necesarios para el desarrollo y el uso de la IA de ahora en adelante.

¿Ustedes que opinan?

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s