A mi lado está Pepper, un simpático robot que apenas alcanza el metro veinte de estatura. Podría parecer un niño, pero no lo es. Hay ya miles de Peppers idénticos a él por el mundo. Lleva en el pecho, me dicen, un motor emocional. Significa que es una de las plataformas más avanzadaspara detectar emociones y responder a ellas. ¿Qué hace?, pregunto. “Si le acaricias la cabeza muestra agrado. Si le tapas los ojos, se queja”. Le tapo los ojos. Pepper, el pequeño robot, tiembla (mejor diría vibra) un poco: “¡Ay, qué oscuro está todo!”, expresa con una agradable voz que tampoco es de niño, pero casi. Continúa mi encuentro con expertos en robótica de la Universidad de Elche, los dueños de este Pepper, y no puedo evitarlo: vuelvo a taparle los ojos.
Lo hago una y otra vez. “¡Ay, qué oscuro está todo!”, repite.

A la tercera vez, los humanos que están a mi alrededor dan señales de ese prodigiodel cerebro sapiens, la empatía. “Pobre Pepper”, escucho. Pero lo cierto es que no es más que si estuviera tapando los ojos sin piedad a una cacerola. Pepper ni se aproxima a saber qué es sentir miedo, pero está programado para simularlo de un modo muy eficaz. Hace más cosas: aprende solo a introducir una pelota dentro de un embudo. Es un juego infantil bastante simple. Después de 24 horas de intentos, gracias a las cámaras, sensores y un sinfín de repeticiones, consigue que la bola entre donde debe. Tras la demostración, y el aplauso de la sala, sinceramente yo estaba a punto de concluir que todo este boom en los medios hablando de la nueva era de la robótica supercapacitada era poco más que un bluf, hasta que Eduardo Hernández, director del Grupo de investigación nBIOde la Universidad de Elche, el laboratorio donde alimentan las redes de Pepper, me dice esta frase: “Sí, Pepper aprende, pero lo curioso es que todavía no comprendemos del todo bien cómo lo hace”.

Usan estrategias humanas

Acaba de nacer ante mí el primer destello de inteligencia. La máquina, por primera vez, aprende por sí misma y no sabemos cómo ha ocurrido. “Tiene muchos sensores, y los algoritmos le permiten aprender por repetición. Utiliza estrategias parecidas a las humanas aunque, de verdad, no lo sabemos. No sabemos cómo lo consigue”.

Singularidad tencnológica. Es un término como el pan, de primera necesidad en todas las pelis de ciencia ficción. Significa: el advenimiento hipotético de inteligencia artificial general, también conocida como “IA fuerte”. Implica que un cerebro artificial, el de Pepper, el de ICub, el del supercomputador de IBM Watson, o el de la manta raya mitad rata mitad chip… Cualquiera de ellos, un día podría ser capaz de automejorarse, rediseñarse a sí mismo, sin mano humana. Vamos, reproducirse. Esto es exactamente lo que ha hecho la evolución en los seres vivos a lo largo de millones de años. A medida que hemos ido reproduciéndonos, hemos obtenido “copias mejoradas” de nosotros mismos. Hasta hoy, que hacemos máquinas listas. Así, lo que en 1958 Von Neumann (matemático húngaro) bautizó como “singularidad tecnológica” apuntaba a que las repeticiones de este ciclo darían lugar a un efecto fuera de control, y como consecuencia a una explosión de inteligencia que nos superaría. “Sería entonces como cuando el Homo sapiens bajó del árbol”, me dice Concha Monje y añade, “un salto evolutivo radical”.

[image id=»89256″ data-caption=»iCub, en la foto con Angela Merkel, es la apuesta estratégica de la UE por los denominados sentient, la robótica que podrá integrarse en la sociedad.» share=»true» expand=»true» size=»S»]

Concha Monje investiga en el Robotics Lab del Departamento de Ingeniería de Sistemas y Automática de la Universidad Carlos III de Madrid (UC3M). En este laboratorio han dado vida a TEO, una plataforma con brazos, cabeza (se la acaban de poner) y varias garras que puede intercambiar según la tarea encomendada. También desarrollan a Maggie, una robot azul, con cara de animal marino, con la que investigan emociones. Monje fue la asesora científica de una peli de robots que protagonizó Antonio Banderas, Autómata. Le pidieron una idea para mostrar ese salto evolutivo en los robots, y por eso aparece en escena, a la sombra de un desguace polvoriento, un robot que se autorrepara. Ese es el comienzo del cambio. “Los robots podrían evolucionar por sí mismos”, me dice Monje y puede haber “un punto en el que la inteligencia propia del robot escape al conocimiento humano”, añade. ¿Puede ocurrir en breve?, pregunto. “No, no creo que nosotras lo veamos. Pero ocurrirá”. TEO y Maggie están lejos de que la chispa de la sabiduría salte en sus circuitos, pero Monje me lleva a otro lugar donde las cosas pueden estar ocurriendo de otro modo. “Los mayores avances en robótica e IA se están llevando a cabo en el DARPA, ya sabes, los militares norteamericanos. Y estoy segura de que ellos tienen ya desarrollos que no han salido a la luz”.

Los soldados autónomos

El vicepresidente del Estado Mayor Conjunto de Estados Unidos, Paul J. Selva, dijo el año pasado que estaban a una década de tener la tecnología para construir un robot completamente autónomo que pudiera decidir a quién matar y cuándo hacerlo, aunque no tenían intenciones (por entonces) de construir uno. El primer ejemplo es un pequeño dron de seis rotores. Hicieron una demostración de sus capacidades. Voló sobre la réplica de una aldea de Oriente Medio, con una mezquita de cartón piedra, rastreando objetivos. Ningún humano lo dirigía. Identificó a una docena de supuestos insurgentes ocultos, que tenían réplicas de fusiles AK-47, deambulando por la aldea. Había llegado el momento de disparar. El dron tenía suficiente autonomía para decidirlo.

[image id=»89258″ data-caption=»Emiratos Árabes costea la producción de los robots REEM que fabrica en Barcelona Palm Robotic. REEM es capaz de comunicarse en 30 lenguas distintas, entre ellas el catalán.» share=»true» expand=»true» size=»S»]

Tomar decisiones es otro de los rasgos inequívocos de la inteligencia, y es lo que parece que tendrán los coches autónomos que ya asoman. Van a conducir solos mientras leemos un libro, parece. Tendrán ojos inteligentes y cerebro inteligente, dicen sus desarrolladores, entre ellos Google, Uber (que hace una semanas estampó uno), Intel…. Su ojo inteligente significa que puede observar el entorno y generar mapas con cámaras, radar, sonar y sistemas sensoriales con láser avanzadísimos. Toda esta información puede suponer la barbaridad de 4.000 gigabytes (una persona genera 1,5 gigabytes al día). El vehículo tendrá que poder decir qué, de toda esa montaña de datos, es imprescindible subir a la nube. De ahí, el Data Center (el cerebro) los procesará y enviará de nuevo al coche para que reaccione como debe, a tiempo real y guiándose por un GPS con un ratio de error de solo 10 cm. Ante una máquina así saltan inmediatamente preguntas simples: ¿podrá distinguir si el niño va a correr detrás de la pelota o no? Y, ¿quién será el responsable si le atropella, el coche, o el conductor?

Hemos llegado a la nube. Y en ella visito a Watson, el supercerebro de IBM. Me lo presentan diciendo que es el rey de lo que se llama “computación cognitiva”, y que de esta área saldrán asistentes digitales billones de veces más inteligentes que los humanos.

Con el apoyo de Watson han desarrollado un vestido que cambia de color según esté el humor de Twitter. Para una empresa gourmet, Watson propuso una receta de gazpacho con chocolate; también compone música, mostrando que la creatividad es solo cuestión de juntar datos de un modo en el que nadie lo haya hecho antes.

Importantes hospitales cuentan ya con su ayuda para diagnósticos, empresas petroleras se basan en sus informes… Para todo, Watson sirve para todo. La idea es que el cerebro humano ha quedado pequeño para procesar toda la información que generamos y que hemos documentado desde que nacieron los ordenadores. Un médico no puede consultar 800 millones de documentos científicos para extraer la información que necesita. Y para eso está Watson. Es un sistema de big big data. Y duplico el big consciente de hacerlo. “No trata de imitar el cerebro humano –me explica Elisa Martín, directora de innovación de IBM– es una ampliación del nuestro”.

A futuro los sistemas cognitivos serán aún más precisos. “Por ejemplo –añade Elisa– podrá detectar enfermedades mentales, le bastará con oírnos para identificar síntomas en las palabras…”.

El fenómeno de 2017

Los gurús de Sillicon Valley eligen cada año un fenómeno que para ellos lo cambiará todo, y en 2017 le han dado el título de next big thing a la inteligencia artificial. La prestigiosa consultora Forrester calcula que en 2017 se triplicarán las inversiones en este sector que, desde luego, no anda cojo. Así que IBM, claro, no está sola. Google, Intel, Apple, Yahoo o Facebook se han lanzado a esta carrera en los últimos cuatro años con la hucha llena. Google ha adquirido 11 firmas de inteligencia artificial desde 2011. Intel compró tres en 2016 y Apple dos según CB Insights. La inteligencia artificial vive de datos datos datos que cada uno de nosotros ofrecemos al día en nuestras webs y redes sociales, como alimento para el gigante. “Somos la última generación que será más inteligente que sus máquinas”, afirmaba George Siemens, director ejecutivo del Link Research Lab de la Universidad de Texas.

[image id=»89259″ data-caption=»Jeff Bezos, director ejecutivo de Amazon, pilotando un Method-2, el primer robot bípedo tripulado del mundo. Se pondrá a la venta a finales de 2017 por8,3 millones de dólares.» share=»true» expand=»true» size=»S»]

Para los superfuturistas de Silicon Valley y los megaempresarios tecnológicos es un “sí” sin fisuras. En los laboratorios, es un quizá, o un no tanto. Pregunto su opinión a Eduardo Fernández, director de nBIO (Grupo de Neuroingeniería Biomédica de la Universidad Miguel Hernández de Elche). Él me adentra en la última de las capas que quería abordar para este reportaje, la fusión entre las células vivas y los chips, la tecnología y el cuerpo humano. ¿Estamos en ese momento en que los robots se van a convertir en una inteligencia superior? “Personalmente creo que hemos avanzado muchísimo, pero solo estamos en los inicios. No comprendemos bien un cerebro humano y es pretencioso creer que podemos emularlo”.

Imitadores como Watson no le llegan ni a la suela de los zapatos. Solo para decidir que un niño es un niño procesamos más información que todos los cerebros artificiales que existen. “Pero no para hacer algo mejor que un humano hay que hacer un cerebro –dice Eduardo–. Un avión vuela muy bien, pero no mueve las alas como los pájaros. Utiliza otras estrategias, y eso es lo que buscamos en robótica e IA en estos momentos”.

Imitar sistemas biológicos

Para que un robot funcione, se necesitan algoritmos muy rápidos. Y aquí, hasta ahora, los investigadores se encontraban, como me explica Eduardo, con un cuello de botella: “La mayor parte de los sistemas informáticos procesan la información muy rápido pero de forma seriada, es decir, una cosa detrás de otra. Si falla una cosa, falla todo el sistema. Los sistemas biológicos sin embargo no lo hacen así. Funcionan con muchas conexiones en paralelo. Si falla algo, se compensa, siguen funcionando. Eso es lo que hace la naturaleza. Buscar otros caminos si uno falla. Para emular un cerebro tendríamos que conseguir ese alto paralelismo que impera en los sistemas biológicos”. ¿Cómo lo hacéis?, pregunto. “Extraemos neuronas de animales jóvenes, del hipocampo y de distintas zonas de la corteza cerebral y las cultivamos sobre electrodos. Una superficie similar a las placas de Petri convencionales pero con electrodos en la parte de abajo. Esto nos permite comunicarnos con las neuronas y que ellas nos envíen información a nosotros”.

Esta es la base de un robot andarín del tamaño del peliculero Wall-e. La “pila” que lo mueve es un cultivo biológico. Lo desarrollaron científicos de la Universidad de Reading, en Reino Unido. Emplea unas 300.000 células extraídas de fetos de rata en un cultivo sobre electrodos. Estos electrodos recogen las señales eléctricas que emiten las neuronas y con ellas el Wall-e de Reading se mueve en una u otra dirección. A su vez, el autómata envía señales de vuelta al cultivo que lo dirige, de forma que las neuronas experimentan distintas reacciones y crean conexiones entre sí. Vamos, que aprenden.

[image id=»89260″ data-caption=»Mil científicos y empresarios, entre ellos Elon Musk, Stephen Hawking, el profesor del MIT Noam Chomsky y el responsable de inteligencia artificial de Google, han firmado una carta abierta redactada por el Future of Life Institute pidiendo que los avances en IA garanticen la supervivencia de la humanidad. Piden, entre otras cosas, que se prohíba específicamente el uso de la inteligencia artificial para el desarrollo de armas que podrían funcionar “más allá del control humano”. » share=»true» expand=»true» size=»S»]

Un proceso similar mueve a una diminuta manta raya creada por científicos de Harvard. Tiene un esqueleto de oro y puede nadar. La dirigen mediante luz y células de corazón de ratón. En este robot raya confluyen ciencias al borde de la ficción, como la optogenética, que manipula el comportamiento con la luz y la biología sintética, que hibrida materiales artificiales con tejidos de seres vivos. Con esta raya, un animal marino, emergen las biomáquinas. Me pregunto si por su esencia biológica tendrán capacidad de autorrepararse, reproducirse solas, si rozan el soplo divino, la singularidad tecnológica…¿Podrán estos sistemas biológicos evolucionar? Eduardo Fernández, que me ha enviado una foto de un cultivo de neuronas de cerebro de ratón en un chip, responde con prudencia: “No va a ocurrir en un futuro cercano y no es nuestro objetivo. Pero es un ejercicio mental interesante”.

Con todo esto, recuerdo una frase de Sandra Hermida, productora ejecutiva de la película Autómata, con quien compartí un agradable viaje en tren. Decía Sandra: “cuando estén aquí estas máquinas superinteligentes y lo hagan todo por nosotros, ¿cuál será el plan para los humanos?”

Lorena Sánchez Romero