Tu tablet quiere matarte

¡Espera! No se te ocurra lanzarla contra el suelo o tratar de ahogarla en el inodoro... No va a asesinarte... Al menos no todavía. Pero que los dispositivos electrónicos sean algún día capaces de hacernos daño por su propia decisión ya no es un asunto de broma ni de ciencia ficción sino tema de serios debates entre filósofos, científicos, ingenieros y hasta hombres de leyes en todo el mundo. Pero empecemos por el principio, por la parte seria de este asunto (y luego hablaremos de las intenciones de tus gadgets).




El robot asesino de hoy

El problema de fondo es la fusión entre las armas y las computadoras. Si bien los robots asesinos existen hace mucho (al menos desde que Irán empleó drones con misiles contra Irak en 1988) ha sido sólo en los últimos años cuando tener una flotilla de drones militares (o UCAV, por sus siglas en inglés) se ha vuelto un requisito imprescindible de toda fuerza armada que se respete. La  creciente complejidad de las computadoras que usan estos aparatos les han permitido ya pasar a la primera línea de ataque, al menos en las guerras del centro y oeste de Asia (Pakistán, Yemen, Irak y Siria).  

Desde el punto de vista del agresor todas son ventajas: Ya no es necesario que arriesgues a tus comandos en una peligrosa incursión nocturna o que envíes a un avión a lanzar bombas sobre el objetivo. Ahora todo es mucho más barato, más frío, más "limpio". El drón militar hace el trabajo sucio por ti. Y si en el peor de los casos tu robot volador es abatido, pues... ¡No pasa nada!. Porque no habrá prisioneros que tengas que rescatar, ni muertos en combate que lamentar (de tu bando), ni pancartas en las calles que digan "traigan a nuestros soldados a casa", ni electores furiosos que "contaminen" las próximas elecciones con sus opiniones sobre la guerra. Desde luego las cosas no son así del otro lado. Por ejemplo, desde el 2010 hay muchos reportes confirmados en Pakistán de civiles inocentes asesinados por drones norteamericanos lo que ha hecho que los organismos de derechos humanos levanten la voz en todo el mundo y que se desate el debate sobre la legalidad de esta forma de guerra.  

Dos ejemplos de drones equipados con artillería: Arriba, el Avenger norteamericano (o Predator C) que está actualmente en servicio. Abajo el Dassault nEUROn de la Unión Europea, que entrará en servicio en el 2018.  (Imágenes tomadas de las webs de sus fabricantes: www.ga-asi.com y  www.pema-group.com)


Pero, a pesar de todo, siguen siendo los seres humanos, y no los drones, quienes deciden a quién se le dispara y a quién no. Puede que estén a miles de kilómetros de distancia del campo de batalla, sentados cómodamente frente a varias pantallas de lo que parece una inofensiva consola de videojuegos... pero esos soldados, que no empuñan ametralladoras sino joysticks, están participando directamente de la guerra. Se hacen cargo de cada movimiento del robot y, son responsables legales de sus acciones. El presidente de EEUU de hecho, declaró en abril que asumía las consecuencias por "el error" (otro) que causó la muerte de dos rehenes durante un ataque de drones contra sus secuestradores de Al Qaeda.  

Pero, ajena a las objeciones, la industria militar continúa perfeccionando sus robots voladores. Cada año las grandes ferias de armamento presentan nuevos modelos con más ventajas que los presentados el año anterior. O bien requieren menos combustible, o son más ligeros o llevan más carga útil o llegan más lejos... en fin, la competencia alienta la innovación. Actualmente EEUU, el Reino Unido, la UE con consorcios de países, Rusia, China, India, Paquistán, Irán, Israel y otros países están produciendo drones militares. Los norteamericanos estarían trabajando en la construcción de portadrones marinos, submarinos y hasta aéreos para aumentar su radio de alcance y contrapesar la gran inversión que están haciendo China o Rusia en vehículos militares no tripulados. Nada indica que la carrera por conseguir la mejor máquina asesina vaya a terminar alguna vez. 


El robot asesino de mañana

En el mundo tecnológico, como todos sabemos, lo "mejor" siempre será aquello que más problemas nos resuelva. Y por eso, tanto los productores como los compradores quieren que llegue el momento en que no sea necesaria ninguna consola ni controles remotos y que sea el robot el que por su cuenta resuelva todos los problemas de un ataque. Que tome sus propias decisiones, basado en el análisis de la información de sus bases de datos y en algoritmos cada vez más complejos. Un dispositivo así, volador o terrestre, decidiría cuándo, cómo y a quién disparar. Si bien estas llamadas armas autónomas tendrían un nivel de inteligencia artificial (IA) no alcanzado hasta el momento, parece que falta muy poco para lograrlo. 

El visionario ingeniero en jefe de Google, Ray Kurzweill le puso un nombre al momento en que las máquinas superen a los seres humanos en capacidad intelectual y puedan tomar "mejores decisiones" que éste: Singularidad TecnológicaAlgunos futurólogos predicen que la Singularidad ocurriá tan temprano como en la década del 2020Y si las máquinas militares ya para entonces son capaces de decidir sobre cuándo emplear o no fuerza letal, los que pueden ser descontinuados por obsoletos somos nosotros. ¿Es una exageración o pura paranoia? Pues un millar de mentes brillantes de nuestro tiempo acaba de decir que no.  
  
Los genios contraatacan

Stephen Hawking, Noam Chomski, Steve Wozniak , Elon Musk y más de mil prestigiosos ingenieros, científicos, pensadores y magnates tecnológicos publicaron hace pocos días una carta abierta en la que advierten que deben detenerse todos los intentos de desarrollar armas autónomas. Si bien reconocen que en principio pueden tener algunas ventajas (como reducir el número de bajas en los conflictos bélicos), consideran que los riesgos superan a los beneficios.  


Stephen Hawking (uno de los físicos vivos más notables) Noam Chomsky (filósofo y activista político), Steve Wosniak (inventor de la computadora personal y cofundador de Apple) o Elon Musk (creador de PayPal, Industrias Tesla y Space X) son algunos de los influyentes firmantes de la carta contra la aplicación de la inteligencia artificial a la industria militar.

Y es que a diferencia de las bombas nucleares, por ejemplo, que son extremadamente caras, difíciles de fabricar y requieren materias primas poco accesibles, los sistemas informáticos de las armas autónomas serían, como cualquier software, fácilmente replicables  y su programación podría ser modificada al antojo de cualquier experto informático. Con toda seguridad se venderían en el gigantesco mercado negro de armas, dejándolas, como dice la carta "al alcance de terroristas, dictadores y señores de la guerra". Estos dispositivos serían "ideales para asesinatos, la desestabilización de naciones, el sometimiento de poblaciones y crímenes selectivos contra determinados grupos étnicos". No es un ejercicio de imaginación alarmista. Basta con revisar la historia de los últimos 50 años para comprobar que ésas son exactamente las cosas que han ocurrido en las guerras civiles de Bosnia, Ruanda, Palestina, Líbano y que hoy ocurren en Siria, Libia e Irak. Todo eso se hizo con las armas que en cada momento estaban disponibles. ¿Se imaginan lo que pasaría con armas mucho más avanzadas y, peor aún, independientes? 

Algunos han propuesto como alternativa la inclusión de límites éticos en la programación de base de los robots. Suena bien, pero todos saben que un buen informático podría quitarlos o reprogramarlos. Otros han hablado de utilizar las tres leyes de la robótica de Isaac Asimov.

En cualquier caso, los firmantes de la declaración no se oponen al desarrollo de la IA, que podría tener incontables beneficios para la humanidad. Pero plantean una legislación internacional que prohiba producir armas autónomas, como la que existe actualmente para las armas biológicas o químicas, aunque todos sabemos lo difícil que le resulta a nuestra especie ponerse de acuerdo en temas que pueden afectar tantos intereses económicos (Miren nada más el asunto del cambio climático: Todos los países dicen querer hacer algo al respecto pero hasta ahora las medidas aprobadas han sido mínimas).

¿La inteligencia artificial ya llegó a tu gadget favorito?

A pesar de suscribir este acuerdo algunos de los firmantes son pesimistas, en general, con el desarrollo. de la inteligencia artificial, incluso en campos que no tienen relación con las armas. A principios de año, por ejemplo, el Profesor Hawking opinó que las apps que funcionan como asistentes personales en nuestros dispositivos móviles (es decir Google NowSiri o Cortana), programas que pueden "aprender" a partir de la interacción con el usuario, son el anuncio de que la inteligencia artificial está a la vuelta de la esquina y que nuestra frivolidad en manejarla puede hacer que se nos escurra de de las manos. 


Los asistentes personales para móviles de Apple, Microsoft y Google. Según Stephen Hawking son el principio de la masificación de la inteliencia artificial. 

Hawking no se anda con rodeos: Opina que si no tenemos cuidado, crearemos máquinas que serán más aptas que nosotros para adaptarse a su entorno y resolver los problemas, y eso "podría desencadenar el fin de la raza humana" porque seremos incapaces de competir contra ellas. Sí, ni más ni menos que lo que hemos visto en Terminator y en Matrix.

Por su parte Elon Musk, expresó las mismas ideas, aunque de una manera más sugestiva:
Yo me inclino mucho a pensar que debe haber una especie de regulación, quizás a nivel nacional e internacional, sólo para asegurarnos de que no haremos algo muy tonto (...) Con la inteligencia artificial estamos convocando al demonio. Conoces todas esas historias en donde hay un hombre con un pentagrama y con agua bendita, pensando que seguro podrá controlar al demonio... pero nunca funciona así.
No todos comparten esa mirada apocalíptica y estas posiciones han sido discutidas en diferentes foros (véase el video que coloco al final de este artículo). El problema es que esta discusión aún no ha llegado a las agendas políticas. Así que es posible que cuando nos alcance la Singularidad todavía estemos discutiendo sobre los límites de la inteligencia artificial. 

Ok. Pero... ¿qué hay de la tablet asesina?

Ah sí. Pues... Que quizá para entonces los que deberían darnos más miedo no serán los poseedores de las nuevas armas autónomas sino ciertos objetos compactos y bonitos que llevamos a todas partes. Gadgets imprescindibles cuyos fabricantes sacan cada año una nueva versión con más funcionalidades que la anterior y que tú comprarás entusiasmado porque quieres tener el dispositivo más bonito, el más nuevo, el más veloz, el más inteligente y el más sabe-Dios-qué para despertar la envidia de los vecinos y para que tu vida sea de lo más parecida a un anuncio de televisión.

Y cuando te vayas a dormir, cansado de jugar con sus maravillosas aplicaciones, tu gadget se quedará a tu lado, montando guardia desde tu mesa de noche, procesando toda la información que le han proporcionado tus acciones. Te estará "mirando", "pensando" cosas sobre ti y meditando las primeras decisiones que tomará al respecto, mientras tú roncas de lo lindo y sueñas con sus apps y lo perfecta que, crees, será tu vida de allí en adelante





Más información

Sobre el manifiesto de "los 1000 sabios": Fue publicado el 28 de julio de este año en medio de la Conferencia Internacional de Inteligencia Artificial que acaba de terminar en Buenos Aires. Puede leerse aquí (en inglés). Aquí un resumen del diario El País de España.

Sobre cuándo ocurrirá la Singularidad tecnológica: Ray Kurzweill publicó su famoso ensayo La singularidad está cerca que animó el debate sobre este tema en la década pasada. Él cree que este evento ocurrirá en 2045. Aquí hay información sobre ese trabajo. Y en el siguiente enlace tienes la excelente (y divertida) crítica en video que sobre estos enfoques hace el físico norteamericano Michio Kaku (con subtítulos en español). Clic aquíVale la pena, son cuatro minutos. 

Sobre las apps de asistencia personal: Copio cuatro enlaces de interés sobre este tipo de aplicaciones. El primero es de la CNN (que compara las principales y ofrece un veredicto que favorece a Google Now: Clic aquí) , el segundo es una nota de BBC MUNDO que señala las virtudes del asistente Cortana (clic aquí). El tercero, del portal Android4All pondera al nuevo asistente Hound (clic aquí) y el último es otra comparativa de la revista Forbes (en inglés, clic aquí).

0 comentarios: