ROBÓTICA

“OK, Google, activa la pistola”: la orden que tu asistente virtual podría llegar a cumplir

Un ingeniero especializado en robótica del MIT ha mostrado hasta dónde podría llegar un dispositivo como Google Home o Alexa a la hora de seguir órdenes

Alberto Pascual | @albertopascualg - 04/06/2018

“OK, Google, activa la pistola”: la orden que tu asistente virtual podría llegar a cumplir
Credit: captura Youtube

Entre todos los comandos posibles que podríamos dar a nuestro asistente virtual, este puede ser uno de los más terroríficos que podríamos encontrarnos hasta ahora y la voz que escuchamos en este vídeo es del creador de esta paradoja. Se trata de Alexander Reben y es un artista y un ingeniero especializado en robótica del Instituto de Tecnología de Massachusetts (MIT) que ha mostrado hasta qué punto un objeto cotidiano podría convertirse en una herramienta para matar: en este caso, nuestro dispositivo del hogar podría ser el principal culpable de cometer un asesinato con tan solo 5 palabras: “OK, Google, activa la pistola”.

En la imagen podemos ver cómo Reben ha logrado con esta frase activar un dispositivo paralelo que logra apretar un gatillo. ¿Quién es el culpable en este caso? La tecnología solo cumplía órdenes del humano que las planteaba, pero ¿por qué no llegó a cuestionar la acción (teniendo en cuenta que se trata de una orden que implica la acción de un arma)? A pesar de que se trata de un sistema muy rudimentario, Reben quiere mostrar cómo algo tan simple, podría convertirse en letal con unos pocos conocimientos de tecnología.

Tan solo tardó unos 30 minutos en construir un dispositivo que fuera capaz de moverse una vez recibiera la orden por parte de Google Home (podría haber funcionado con otros también, ya que la acción era la misma). Este estaba enganchado al gatillo de una pistola la cual disparaba la bala hacia una manzana que tenía a apenas unos centímetros de distancia.

Desde Google ya han asegurado que a pesar de que pronuncia esas palabras, un asistente digital no está capacitado para aceptar ese tipo de órdenes, ya que están en contra de las normas de la compañía. Por lo tanto, Reben tuvo que manipular de alguna forma para que su dispositivo aceptase esa norma como correcta para activar el sistema que apretara el gatillo. Pero la cuestión no está en cómo lo hizo, sino en un debate mayor que el ingeniero del MIT ha querido plantear: ¿hasta qué punto la tecnología que creamos puede convertirse en nuestra enemiga o en cómplice de nuestras malas acciones?

Reben reconoce que se trata de una provocación que busca animar a plantear más dudas y preguntas. Esperemos que al menos tengan en cuenta en un futuro las leyes de la robótica de Isaac Asimov y no acabemos muertos por este tipo de órdenes.



Ver más