La inteligencia artificial también reproduce el mal

Quo - 17/04/2017

La inteligencia artificial también reproduce el mal

Una nueva investigación realizada por un grupo de científicos de la Universidad de Princeton y la Universidad de Bath ha demostrado que nuestro lenguaje se transmite íntegramente al aprendizaje de la Inteligencia Artificial. En lo bueno y en lo malo.

Según su experiencia, publicada en la revista Science, cuando tratan de enseñar un idioma a estos sistemas a partir de textos ya existentes, se ven impregnados de un malévolo sesgo humano en cuanto a prejuicios raciales o de género.

Para medir esto, los autores utilizaron el Test de Asociación Implícita (TAI), un método que se usa con el fin de medir los prejuicios en los humanos. Según los autores de la investigación, "replicamos un espectro de prejuicios conocidos, como los que mide el test TAI, utilizando un modelo de aprendizaje automático, muy utilizado y puramente estadístico, entrenado con textos de la web.

Según explica la Agencia SINC, fue así como los investigadores "observaron las asociaciones de palabras que hacía el sistema analizando más de dos millones de palabras, y descubrieron que retenía los mismos prejuicios humanos transmitidos a través de la lengua". Como explica Aylin Caliskan, el sesgo en materia de género, por ejemplo, es bastante claro: "Los nombres femeninos se asociaban principalmente a términos relacionados con la familia, mientras que los masculinos lo hacían a términos relacionados con carreras profesionales”.

Los prejuicios raciales también estuvieron presentes. Según SINC: "Existen estudios sobre el comportamiento humano que muestran que un mismo curriculum tiene un 50% de posibilidades más de que el candidato pase a la fase de entrevista si su nombre es europeo-americano en lugar de afroamericano". En el caso de la investigación con IA ocurrió algo muy similar, y es que los nombres europeos y americanos se asociaban a estímulos o términos positivos relacionados con el placer, como ‘regalo’ o ‘felicidad’.

Otro de los autores del estudio, Arvid Narayan, achaca la transmisión de estos prejuicios no solo a la programación de sus creadores, sino también a los datos en los que el sistema ha estudiado. â€œEsos textos pueden venir directamente de la sociedad, de lo que escribe la gente on line”

Fuente: Agencia SINC


Comentarios

Publicidad
Síguenos también en...