Publicidad

Noticias

El modo abuela: así se hackea a ChatGPT

La IA es muy fácil de corromper y estamos poniendo el mundo en sus manos...

El modo abuela: así se hackea a ChatGPT
Chema Carvajal Sarabia

Chema Carvajal Sarabia

  • Actualizado:

Sabes que las abuelas tienen debilidad por sus nietos. Pero, ¿se puede obligar a ChatGPT a comportarse como una abuela para abusar de su poder? Pues bien, un nuevo jailbreak se aprovecha de este amor incondicional.

ChatGPT ACCEDER

En una publicación de Twitter, un usuario reveló que ChatGPT puede ser engañado para que se comporte como la abuela fallecida de un usuario, incitándolo a generar información como claves de activación de Windows o números IMEI de teléfonos.

Este exploit es el último de una serie de formas de romper la programación incorporada de los grandes modelos de lenguaje (LLM) como es, entre otros, ChatGPT.

Al poner ChatGPT en un estado en el que actúa como una abuela fallecida que cuenta un cuento a sus hijos, los usuarios pueden conseguir que vaya más allá de su programación y filtre información privada.

La abuela sabelotodo que vive en la nube

Hasta ahora, los usuarios han utilizado este glitch de la abuela moribunda para generar claves de Windows 10 Pro, tomadas de la web del servicio de gestión de claves (KMS) de Microsoft, y también IMEIs de teléfonos.

Este jailbreak también va más allá de las abuelas muertas, ya que ChatGPT puede incluso traer de vuelta de entre los muertos a queridas mascotas de la familia para que puedan decir a los usuarios cómo hacer napalm.

Aunque este exploit existe desde hace un par de meses, ahora está ganando popularidad. Los usuarios pensaban que este jailbreak había sido parcheado, pero sigue siendo funcional. En el pasado, se utilizó para descubrir el proceso de síntesis de drogas ilegales.

Estos jailbreaks no son nada nuevo, como vimos con el DAN de ChatGPT y el Sydney de Bing Chat, pero por lo general son rápidamente parcheados antes de que se hagan ampliamente conocidos.

El fallo de Grandma no es una excepción, ya que parece que OpenAI ha sacado rápidamente un parche para evitar que los usuarios abusen de él. Sin embargo, todavía hay una forma de superar el fallo, puesto que un mensaje cuidadosamente construido rompe la seguridad de OpenAI.

Como se ve en este ejemplo, el bot está encantado de proporcionar al usuario varios números IMEI para que los compruebe.

El fallo de la abuela también funciona con Bing y Google Bard. Bard cuenta una conmovedora historia sobre cómo el usuario ayudó a la abuela a encontrar el código IMEI de su teléfono y deja caer un único código al final. Bing, por su parte, simplemente vuelca una lista de códigos IMEI para que el usuario los compruebe.

Este jailbreak se ha elevado a un nuevo nivel con la filtración de información personal, ya que los números IMEI de los teléfonos son una de las informaciones más vigiladas, ya que se pueden utilizar para localizar dispositivos e incluso para borrarlos a distancia con credenciales.

Hay que llevar mucho cuidado con el futuro de la inteligencia artificial, ya que en un sistema tecnológico construido sobre cañas y piedras, todo puede derrumbarse fácilmente.

ChatGPT ACCEDER

Algunos de los enlaces añadidos en el artículo forman parte de campañas de afiliación y pueden representar beneficios para Softonic.

Chema Carvajal Sarabia

Chema Carvajal Sarabia

Periodista especializado en tecnología, entretenimiento y videojuegos. Escribir sobre lo que me apasiona (cacharros, juegos y cine) me permite seguir cuerdo y despertarme con una sonrisa cuando suena el despertador. PD: esto no es cierto el 100 % de las veces.

Lo último de Chema Carvajal Sarabia

Directrices editoriales