JUNIO 13, 2018. Hasta la fecha, los sistemas basados en inteligencia artificial se centran en encontrar soluciones y automatizar procesos con el objetivo de contribuir, en su escala, a una situación mejor para el ser humano. Los hemos visto aplicados en el tratamiento de enfermedades o incluso, para evitar colas en los WC públicos, pero…¿ y si el sistema está programado para el mal?
Este planteamiento lo ha llevado a la realidad un grupo de investigadores del prestigioso Instituto de Tecnología de Massachusetts (MIT).
El equipo, formado por Pinar Yanardag, Manuel Cebrián e Iyad Rahwan, ha creado un asistente virtual que únicamente se nutre de información negativa y tenebrosa en la Red.
Esto tiene el único objetivo de conocer cómo actuaría el sistema empleando esta visión de las cosas.
Todos hemos tenido alguna vez un mal día en el que todo parece salirnos mal y nuestra visión de las cosas es en esos momentos negativa. Pues bien, éste sería el estado natural de este sistema al que han bautizado como Norman.
La elección del nombre no está hecha a la ligera: es el nombre del siniestro personaje Norman Bates, de la película Psicosis, del genial Alfred Hitchcock, que ha atemorizado a varias generaciones. En cierto sentido, las semejanzas entre ambos caracteres son llamativas.
El equipo del MIT ha creado un algoritmo que se nutre de información proveniente de los rincones más oscuros del conocido foro Reddit.
Norman acumula de forma masiva, terminología, expresiones, pero también material gráfico de carácter perturbador, con el objetivo de crear una personalidad propia.
Tras varios días recopilando datos, al asistente, basado en inteligencia artificial, se le sometió al conocido test de Rorschach, aquel en el que se muestran unos dibujos sin un contenido claro de forma que el cerebro del paciente componga la estampa en función de sus pensamientos. El resultado fue demoledor. “Norman identificó imágenes aterradoras y en todas ellas estaba la presencia de la muerte“, confirman los responsables del estudio, en entrevista con CNN.
Así, por ejemplo, en la primera imagen mostrada aparecía un grupo de pájaros posados sobre la rama de un árbol, una información gráfica que este asistente identificó como un hombre electrocutado. De hecho, en todas las imágenes que mostraban la presencia de un ser humano, éste era objeto de asesinato o aparecía la muerte en alguno de los elementos de su justificación.
Pero… ¿por qué ha creado el MIT un asistente tan cargado de odio?
El equipo ha querido concienciar al mundo del potencial peligro de los sistemas basados en inteligencia artificial, una visión compartida y alertada desde hace tiempo por figuras relevantes como Elon Musk.
Advierten que estos sistemas sin control pueden ser muy perjudiciales y, en clara semejanza a las corrientes de opinión que pueden generarse en la sociedad empleando bots, si asistentes como Norman se alimentan exclusivamente de negatividad, esto es lo que proyectarán y aplicarán.
Pero no está todo perdido para este asistente y los que vengan después: los expertos explican que la visión negativa del sistema puede reconducirse de forma automática si se le expone a una visión más positiva de las cosas.