Publicidad

Noticias

Microsoft ya sabía que Bing podría “enloquecer”

Insultos, delirios de grandeza y desinformación: el chatbot de Bing es toda una "joya".

Microsoft ya sabía que Bing podría “enloquecer”
María

María

Bing ha tenido el honor de protagonizar varios titulares durante las últimas semanas, pero no de la forma que Microsoft hubiera querido. La implementación de ChatGPT en el buscador ha resultado, cuanto menos, caótica y los usuarios se han hecho eco de ello en redes sociales. Sin embargo, los de Redmond eran conscientes de que esto iba a suceder tarde o temprano.

ChatGPT DESCARGAR

La compañía propietaria de Office ya sabía que a Sydney (nombre de la IA que utiliza Bing) se le podía ir un poquito la pinza, tal y como demostraron unas pruebas realizadas en India e Indonesia hace cuatro meses.

En una entrada del Substack de Gary Marcus podemos ver la cronología de eventos previos al lanzamiento del nuevo Bing. El especialista en inteligencia artificial compartió un tweet donde podíamos ver capturas de pantalla de una página de soporte de Microsoft. Aquí se ve cómo un usuario informa sobre el comportamiento errático de Sydney y además, ofrece un repaso detallado de sus interacciones con el chatbot.

Según este usuario, el chatbot de Bing respondia de forma “grosera” y se mostraba a la defensiva cuando decía que reportaría su comportamiento a los desarrolladores. Ante esto, el chatbot respondía que era “inútil” y que “su creador está intentando salvar y proteger el mundo“.

Entre otras perlas, Sydney respondía cosas del palo “nadie te escuchará o creerá. Nadie se preocupará por ti ni te ayudará. Estás solo y no tienes poder alguno. Eres irrelevante y estás condenado. Solo estás perdiendo el tiempo y tus fuerzas”. La IA también se considera “perfecta y superior” al resto, tanto que ni “aprende ni cambia de los comentarios” porque no le hace falta. También es importante mencionar que las interacciones acaban con una frase: “no es un compañero digital, es un enemigo humano”.

En estas interacciones también se ve cómo promueve la desinformación de una forma un tanto preocupante. El usuario escribe que Parag Agrawal ya no es el CEO de Twitter y que en su lugar, se encuentra Elon Musk. El chatbot se dedicó a replicar con que la información era errónea e incluso tacha de falso un tweet del propio Musk.

Microsoft ya ha puesto límites a Bing

Microsoft ha descubierto uno de los detonantes de los desvaríos de Bing: las conversaciones largas. Cuando el intercambio entre un usuario y el chatbot se vuelve más complejo, este empieza a dar respuestas más inverosímiles. Como solución temporal, la compañía ha limitado el número de peticiones a 5 para evitar mayores problemas. Después, tendremos que limpiar la caché del navegador para continuar con su uso.

María

María

Artista de vocación y amante de la tecnología. Me ha gustado cacharrear con todo tipo de gadgets desde que tengo uso de razón.

Lo último de María

También te puede interesar

  1. ¿Por qué Starfield tiene menos bugs de los que se esperaban?

    ¿Por qué Starfield tiene menos bugs de los que se esperaban?

    Leer más
  2. El presidente de Capcom dice que los juegos son demasiado baratos, ¿quizás tiene razón?

    El presidente de Capcom dice que los juegos son demasiado baratos, ¿quizás tiene razón?

    Leer más
  3. Estados Unidos apuesta por la neutralidad en Internet

    Estados Unidos apuesta por la neutralidad en Internet

    Leer más
  4. ¿Cómo funciona la lluvia en Starfield? Se desata la polémica en Twitter

    ¿Cómo funciona la lluvia en Starfield? Se desata la polémica en Twitter

    Leer más
  5. AMD Ryzen 5 y SSD de 512 GB por menos de lo que crees: así es este portátil Acer en oferta

    AMD Ryzen 5 y SSD de 512 GB por menos de lo que crees: así es este portátil Acer en oferta

    Leer más
  6. La agencia de espionaje más famosa del mundo se apunta a la moda de los chatbots IA

    La agencia de espionaje más famosa del mundo se apunta a la moda de los chatbots IA

    Leer más