Publicidad

Artículo

La sorprendente verdad detrás de la IA que Facebook desactivó “por miedo a que conspirara contra la humanidad”

La sorprendente verdad detrás de la IA que Facebook desactivó “por miedo a que conspirara contra la humanidad”
Daniel Caceres

Daniel Caceres

  • Actualizado:

Seguro que has estado al tanto del lío que se ha montado estos últimos días con un experimento “peligroso” de Facebook. Me refiero a la noticia de que Facebook ha desactivado una Inteligencia Artificial que estaba desarrollando porque estaba empezando a ser demasiado peligrosa para la humanidad.

En los últimos días, hemos tenido titulares catastróficos como “Los ingenieros de Facebook entran en pánico, desactivan una IA después de que los bots desarrollaran su propio lenguaje”; “Facebook desactiva una IA después de que invente su propio lenguaje inquietante“; o artículos sobre “los peligros que derivan de la inteligencia artificial”.

Diantres, solo mira algunas de las imágenes que han acompañado las noticias de turno:

0F0

t2-judgement-day

141110_robot

¿Realmente Facebook ha creado sin querer una serie de bots que hablaban entre ellos con un idioma inventado para conspirar contra nosotros? No, todo ha sido algo que a los medios de comunicación se les ha escapado de la mano.

¿Qué ha ocurrido entonces? ¿Cuál es la verdad detrás de la histeria y la polémica? Todo empezó hace unas semanas, cuando FastCo Design, portal de tecnología y de marketing, reveló que dos bots creados por Facebook estaban hablando entre ellos de forma extraña.

yuyy

Estos dos bots, “Bob” y “Alice”, forman parte de un proyecto que la unidad de Investigación de Inteligencia Artificial de Facebook (o FAIR, que son sus siglas del nombre en inglés) reveló públicamente este mes de junio.

El objetivo del proyecto era descubrir “si es posible crear dos agentes de diálogo con objetivos diferentes que puedan iniciar y terminar negociaciones con otros bots o personas hasta llegar a acuerdos”.

Estos bots trataban de repartirse una serie de objetos (representados en forma de objetos virtuales como libros, sombreros y pelotas) de forma que ambos estuvieran de acuerdo.

Aquí tienes a los bots negociando entre ellos:

Captura

La intención detrás de este proyecto era descubrir si un bot podría aprender lo suficiente de interacción humana como para negociar con un usuario sin que este supiera que esta hablando con una máquina. A nivel práctico, un bot de este calibre serviría a las empresas para atender a los clientes en todo momento, evitando tener que contratar “humanos” para ello.

El proyecto fue un éxito: “El rendimiento del mejor agente de negociación creado por FAIR, que usa aprendizaje de refuerzo, se equipara al rendimiento de un negociador humano. Hemos demostrado que los bots de FAIR no solo pueden hablar inglés sino que también saben pensar de forma inteligente sobre lo que decir a continuación“.

Hasta aquí todo bien, ¿verdad? No hay nada ominoso ni extraño en ello. La cosa se complica cuando FAIR decide coger a dos de sus bots más inteligentes, los llamados “Bob” y “Alice”, para que hablen entre ellos. Por curiosidad.

Es entonces cuando aparecen estas conversaciones extrañas y un tanto inquietantes. Aquí tienes un extracto íntegro, por cortesía de la propia Facebook:

i-1-ais-are-writing-their-own-perfect-languages-should-we-let-them

La prensa malinterpreta las conversaciones (o no acaba de leer el artículo original de FastCo Design) e interpreta el cese del experimento por parte de Facebook como que la empresa tiene miedo de que la IA que ha creado haya confeccionado su propio lenguaje secreto.

Facebook SÍ desactivó la conversación entre los dos bots. Pero lo hizo porque se había cometido un error en el experimento. FAIR se descuidó y no incentivó a los dos bots a que se comunicaran de acuerdo con reglas del inglés que pudiera entender un ser humano. Los bots simplemente hablaron entre ellos y crearon atajos idiomáticos que, cierto, dan un poco de repelús porque parece que se hayan vuelto locos, pero son totalmente inofensivos.

“Los dos agentes dejaron atrás el lenguaje comprensible e inventaron códigos entre ellos”, explica FAIR. “Es como si yo dijera la palabra `el´ cinco veces y tú entendieras que quiero cinco copias del objeto en cuestión. No se diferencia demasiado de cómo los humanos creamos atajos idiomáticos”.

Facebook chapó el experimento porque lo que quiere es que los bots aprendan a hablar con personas. El resultado no era peligroso. Simplemente no era práctico. Los bots habían aprendido a distribuir sus pelotas virtuales, pero sin seguir las reglas inglesas que todos entendemos. Así que el experimento no servía para nada.

rrhyrr

Es fácil ver cómo una historia que empieza con “dos bots logran intercambiarse pelotas virtuales, pero lo hacen a su manera y no nos sirve” a “Facebook desactiva dos bots porque habían creado un nuevo lenguaje y podían suponer un peligro para la humanidad”. La segunda versión es mil veces más atractiva que la primera.

Resumiendo: no, ni “Bob” ni “Alice” conspiran contra nosotros ni nuestras vidas corren en peligro. En todo caso, los únicos que deberían preocuparse con los negociadores profesionales; si estos experimentos siguen yendo bien, se van a quedar sin trabajo.

Fuente: Gizmodo

Daniel Caceres

Daniel Caceres

{ "de-DE": "", "en-US": "I learned how to read thanks to Monkey Island Insult Sword Fightning. I love to write fiction, meditate, and spy on strangers on bars and restaurants. I have an unfinished games backlog. I practice NPL and Impro-theater.", "es-ES": "Aprendí a leer gracias a los duelos de insultos de Monkey Island. Adoro escribir ficción, meditar, espiar a desconocidos en bares o restaurantes, dejar juegos sin acabar... Práctico PNL (cuando quieras te hago unos anclajes reshulones) y me estoy formando como actor de impro-teatro.", "fr-FR": "", "it-IT": "", "ja-JP": "", "nl-NL": "", "pl-PL": "", "pt-BR": "", "social": { "email": "daniel.caceres@softonic.com", "facebook": "", "twitter": "https://twitter.com/lorddevries", "linkedin": "", } }

Lo último de Daniel Caceres

Directrices editoriales