En tu próximo viaje transoceánico a Estados Unidos puede que en el aeropuerto no solo escaneen tus pertenencias: también podrían analizar tu cuerpo y mente para descifrar tus intenciones. Y cuidado si tienes un pensamiento un poco malévolo: del mismo modo que no te dejan embarcar más de 100 ml de líquido, la maldad tampoco podrá subir a bordo. Ni siquiera en dosis pequeñas. Y es que las técnicas de precrimen que Philip K. Dick soñaba en Minority Report puede que se estén haciendo realidad… sin necesidad de psíquicos sumergidos en piscinas gelatinosas. Solo con ciencia. Actualmente son tres las aproximaciones que la tecnología está explorando para anticipar y evitar la comisión de delitos.

La primera de ellas está en preparación desde 2008 y responde a las siglas FAST: Future Attribute Screening Technology (tecnología de detección de actitudes futuras, en español) y ha sido creado por el Departamento de Seguridad Interna (DHS por sus siglas en inglés) de Estados Unidos. La base de este dispositivo, como la de los detectores de mentiras, se funda en señalar determinados indicadores fisiológicos que supuestamente ponen de relieve la esencia de persona non sancta del individuo.e
Pero, al contrario de lo que sucede con los polígrafos, sus sensores no establecen contacto con la persona. Lo que hacen es medir el ritmo cardíaco, la sudoración, los impulsos electrodérmicos y cambios en la prosodia (alteraciones en el ritmo y la entonación de los diálogos), entre otros, para evaluar la intencionalidad de una persona de cometer un atentado.

Inicialmente, el FAST fue probado con voluntarios a quienes se aleccionaba para tener una actitud equívoca. Su comportamiento era estudiado por personal formado específicamente en esta tecnología y ellos eran quienes señalaban a los sospechosos. En estas pruebas de laboratorio, el DHS informó de una precisión que ronda el 70%. Y ese es el gran temor de los científicos.

Errar es humano, pero… ¿Tanto?

Aún en fase de ensayos, su secretismo es notorio. Todos los intentos que hemos realizado en Quo para comunicarnos con Robert P. Burns, director del Departamento de Ciencia y Tecnología del DHS, han sido vanos; solo hemos recibido un escueto comunicado de prensa que asegura que: “El departamento de Ciencia y Tecnología del DHS ha llevado a cabo una investigación preliminar en los entornos operacionales para determinar la viabilidad de utilizar sensores fisiológicos y de comportamiento no invasivos y técnicas de observación para detectar signos de estrés, que a menudo se asocian con la intención de hacer daño. El programa FAST se encuentra en etapas preliminares de investigación y no hay planes para desplegar esta tecnología actualmente”. Claro, que este comunicado tiene fecha de hace 6 meses.

La demora en ponerlo en práctica podría tener que ver precisamente con su índice de aciertos, ya que daría un alto porcentaje de falsos positivos. A este respecto, Tom Ormerod, profesor de Psicología y experto en técnicas de seguridad preventivas, nos asegura que: “Si bien son destacables los esfuerzos por desarrollar una tecnología con bases empíricas reales para anticipar crímenes, creo que este tipo de acercamiento es erróneo: hasta un escáner de iris o la lectura de la huella dactilar puede disparar el ritmo cardíaco de cualquiera. Hasta donde yo sé, la tecnología todavía no ha demostrado nada. Y sin resultados fiables, es una farsa”.

Pero no son los científicos los únicos en contra de esta tecnología: también los especialistas en leyes han alzado la voz y han denunciado que en Europa es imposible que se ponga en funcionamiento, pues es una violación del derecho a la intimidad.

Las matemáticas al rescate

El segundo proyecto que lucha por anticiparse a los crímenes se sirve de algoritmos similares a los que utiliza Amazon para sugerir nuevos libros y películas a los consumidores. Se trata de un sistema analítico predictivo de IBM que participa en un proyecto conjunto de la Universidad de Memphis y la policía local denominado Blue CRUSH (Crime Reduction Utilizing Statistical History, reducción del crimen utilizando estadísticas históricas).

Desde que esta iniciativa fue lanzada en 2006, se han reducido en un 26% los delitos a mano armada, mientras que los robos de coches y los asesinatos han descendido un 40%. Así que Blue CRUSH parece que funciona correctamente, ¿pero cómo lo hace?

Inicialmente, digamos en su versión 1.0, Blue CRUSH utilizaba la información de crímenes pasados para obstaculizar los delitos futuros. Por ejemplo, descubrieron que la mayoría de las violaciones o intentos de violación se daban en determinadas circunstancias: personas que salían solas de noche a hacer una llamada en un teléfono público ubicado fuera de una tienda. La policía obligó a los dueños de las tiendas a poner el teléfono público en el interior, y muy pronto el índice de ataques sexuales disminuyó drásticamente en la ciudad.

Pero la versión 2.0 va mucho más allá. Mediante un algoritmo, analiza las probabilidades de que una persona en libertad condicional vuelva a cometer un crimen basándose en decenas de miles de casos e incluye variables como sexo, fecha del primer delito, tipo de infracción y otras. Gracias a ello, el algoritmo pronosticó correctamente un 75% de casos en los que el delincuente finalmente reincidió.

La gran diferencia, a ojos de los expertos, es que esta técnica no predice el comportamiento de personas al azar, sino de que ciertos tipos de crímenes se cometan en determinados momentos y lugares, y por individuos señalados.

El peligro es, como señala Richard Berk, profesor de Criminología de la Universidad de Pensilvania y quien desarrolló uno de los algoritmos que se utilizan actualmente en precrimen, que: “Sea una herramienta demasiado influyente a la hora de juzgar actos que aún no se han cometido y niegue la libertad condicional a algunos.”

Ya pueden leer tu mente

Finalmente, el último proyecto tecnológico ha sido desarrollado por Ariana Anderson, del Laboratorio Integrado de Tecnologías de Neuroimagen de la UCLA. Desde Los Ángeles, Anderson asegura que esta tecnología: “Aún no se ha utilizado con fines policiales, pero con las convenientes adaptaciones podría servir. Aunque aún estamos muy lejos de ello”.

Anderson estudió mediante imágenes de resonancia magnética el cerebro de voluntarios a quienes se privaba de nicotina. Analizando la activación de ciertas zonas y gracias a un algoritmo, podía predecir con un 90% de aciertos cuándo estaban pensando en tabaco: leía su pensamiento. Si se pudieran establecer los circuitos neuronales de la violencia, estaríamos a un paso del diagnóstico preciso del precrimen

Método FAST. Es un dispositivo tecnológico de la Agencia de Seguridad Interna (DHS) de Estados Unidos. Se basa en analizar todas las señales biológicas (ritmo cardíaco, sudoración, impulsos electrodérmicos, cambios en la entonación de la voz) que emite una persona que intenta cometer un delito.
Para su puesta a punto se hizo un estudio con voluntarios, empleados de DHS, a quienes se instaba a cometer un crimen mientras los analistas que observaban la escena recogían los datos. El estudio se hizo en diferentes grupos raciales y tiene por objetivo que, apenas se detecten estos indicios, se tomen medidas preventivas. El modo en que se obtiene esta información y un índice de fallo del 30% son sus grandes trabas.

Leer la mente. Conocida como decodificación o lectura cerebral, utiliza la fMRI para establecer qué conexiones neuronales se activan (en este estudio particular, en adictos al tabaco) y luego las analiza con algoritmos específicos que permiten establecer pautas de dichas conexiones. Estos algoritmos son los mismos que permiten a los buscadores de internet y a los procesadores de texto de los móviles sugerir palabras. Así, cuando el fMRI mostraba las primeras conexiones, el algoritmo anticipaba qué zonas se activarían y en qué estaría pensando el voluntario: en satisfacer su adicción o en cualquier otra cosa.

Blue CRUSH. Se trata de un sistema de algoritmos de la Policía de Memphis. Del mismo modo que Google Analytics puede predecir nuestras intenciones de compra, se analizan escenas de crímenes ocurridos por hora, día, semana, mes y ubicación. Estudia la cercanía a estadios, cajeros automáticos y las fechas de pago de los principales empresarios de la ciudad, con el fin de predecir actos violentos. Toda esa información se vuelca en un mapa de la ciudad (imagen superior), ya que, al igual que sucede con las réplicas de un terremoto, los delitos son seguidos por “ondas criminales” que los especialistas pueden predecir gracias al algoritmo y enviar fuerzas a esa zona para evitarlos.

¿Es invasión de privacidad?. Para comprender si este tipo de tecnologías va en contra de nuestros derechos, hablamos con Rodolfo Tesone, abogado y director de ENATIC (Expertos Nacionales de la Abogacía y Tecnología de la Información y la Comunicación). Tesone nos asegura que: “Esto en Europa es inviable, porque vulnera el derecho a la intimidad. Como investigación es interesante; también hay que tener en cuenta que el 80% de nuestra vida social está volcada en internet y ya hay empresas que utilizan este conocimiento con fines publicitarios. Por lo tanto, no sería raro que se hiciera con fines de seguridad. Pero en materia de protección de datos no se puede hacer. En Estados Unidos es otro tema, y más desde los ataques terroristas. La tecnología FAST, por ejemplo, no me sorprende.
Pero el escenario en el que se anticipa la comisión de un delito  es algo que debería preocuparnos como sociedad. Sobre todo cuando las redes sociales son públicas”.

Person of interest, o vigilados. es una serie (emitida por La Sexta) más realista, al menos en términos de tecnología, que Minority Report. Trata sobre un programa informático capaz de anticipar cualquier crimen gracias a las cámaras de vigilancia diseminadas por la ciudad de Nueva York.

En el futuro,como ocurre en la película Minority Report, podría existir una Agencia de Precrimen.