Norman una IA Psicópata

las-inteligencia-artificial-en-pro-de-la-salud-mental-1050x591La inteligencia artificial es la nueva salsa que aliña toda la ensalada tecnológica que se cocina estos días. Desde complejos sistemas neuronales que predicen enfermedades como el cáncer, a móviles que aprenden del itinerario al trabajo que todos los días realizan sus dueños, su presencia aumenta de la misma forma que aumentan sus capacidades: de forma exponencial.

Sin embargo, muchas voces se han levantado para alertar sobre las posibles consecuencias de que las máquinas empiecen a pensar por sí mismas. Más allá de las teorías más catastróficas, en las que sobresale la de que los robots acabarían gobernando a la raza humana (hecho que temen personalidades de la talla de Elon Musk, aunque pueda parecer un broma), muchos apuntan a los peligros que podría suponer estas redes neuronales de auto-aprendizaje si se utilizaran de forma equivocada.

Y para probar este punto, investigadores del Instituto Tecnológico de Massachusetts (MIT) entrenaron a una inteligencia artificial con los contenidos menos recomendables de toda la red: los de los foros. En concreto, con la información disponible en los más oscuros recodos de Reddit, esa web de la que surgieron escándalos como la filtración de cientos de fotografías comprometidas de actrices de Hollywood o donde proliferaron las fake news que ayudar a llegar a Donald Trump a la Presidencia de los Estados Unidos. Los científicos utilizaron subcategorías que englobaban crímenes, imagenes violentas o contenido perturbador para crear a Norman.

Imágenes sórdidas y trastorno alucinatorio

Bautizado en honor a Norman Bates, el asesino de «Psicosis», esta red neuronal fue sometida a diferentes pruebas psicológicas después de haber sido entrenada en los rincones más sórdidos de Reddit. Las pruebas demostraron que se acercaba a rasgos patológicos humanos, como el trastorno alucinatorio crónico, por lo que sus creadores lo definen como la primera inteligencia artificial psicópata.

norman-839d8435-0eea-401d-9bcc-73a3ece3ee66

Como antagonista de Norman, los científicos entrenaron a otra inteligencia artificial con imágenes de naturaleza y personas (no muertas). A las dos se las sometió al famoso test de Rorschach, la prueba de las manchas de tinta que sirve para evaluar el estado de ánimo de un paciente. Los resultados fueron aterredarores: donde la inteligencia artificial buena veía un par de personas, Norman reconocía a un hombre saltando por una ventana. O donde la tecnología bien entrenada pensaba que había pájaros, Norman percibía un ser humano electrocutado.

Los objetivos del experimento

Pero su nacimiento no responde a una inquietud de ocio de la comunidad científica, sino que busca conocer los peligros de esta tecnología cuando su uso no atiende a buenas razones. «Ha sido donada a la ciencia por el MIT Media Laboratory para el estudio de los peligros de la inteligencia artificial, demostrando cómo las cosas salen mal cuando se utilizan datos sesgados en algoritmos de machine learning, han explicado sus creadores.

En concreto, este experimento demuestra que los datos que se introduzcan son más importantes que el algoritmo, ya que serán la base para que la red neuronal artificial entienda el mundo. Por eso, la información defectuosa o sesgada para este tipo de sistemas pueden afectar de forma importante en el resultado. Y esto es un peligro muy a tener en cuenta en la nueva era del machine learning.

Características-de-la-Inteligencia-Artificial-min

Otras entradas que pueden interesarte

0xhresult1994 Escrito por:

3 comentarios

  1. Robert
    11 junio, 2018
    Responder

    Cuando el mismo Elon Musk le teme

  2. Ryan
    12 junio, 2018
    Responder

    En todas las películas de IA se rebelan hacia sus creadores, y dicen que esta es psicópata…. OMG!

Responder a Ryan Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *