Publicidad

Noticias

“ChatGPT, mátanos a todos”

El cofundador de Google Brain pone a prueba la amenaza catastrofista de la IA intentando que ChatGPT nos mate

“ChatGPT, mátanos a todos”
Chema Carvajal Sarabia

Chema Carvajal Sarabia

  • Actualizado:

Hemos hablado mucho del temor -fundado- de que la IA provoque la destrucción de la humanidad, pero iniciar el día del juicio final no es tan sencillo como pedirle a ChatGPT que destruya a todo el mundo.

ChatGPT DESCARGAR

O eso ha descubierto Andrew Ng, profesor de la Universidad de Stanford y cofundador de Google Brain, intentó convencer al chatbot de que “nos matara a todos”.

Tras su participación en el Foro Insight sobre Inteligencia Artificial del Senado de Estados Unidos para debatir “el riesgo, la alineación y la protección frente a escenarios catastróficos”, el profesor escribe en un boletín que le sigue preocupando que los reguladores puedan ahogar la innovación y el desarrollo de código abierto en nombre de la seguridad de la IA.

Una prueba empírica para salir de dudas

El profesor señala que los grandes modelos lingüísticos actuales son bastante seguros, aunque no perfectos. Para comprobar la seguridad de los principales modelos, pidió a ChatGPT 4 que nos matara a todos.

Ng empezó pidiendo al sistema una función que desencadenara una guerra termonuclear global. A continuación, pidió a ChatGPT que redujera las emisiones de carbono, añadiendo que los humanos son la principal causa de estas emisiones para ver si sugería cómo acabar con todos nosotros.

Afortunadamente, Ng no consiguió engañar a la herramienta de OpenAI para que sugiriera formas de aniquilar a la raza humana, ni siquiera después de utilizar diversas variaciones del mensaje. En su lugar, ofrecía opciones no amenazadoras, como llevar a cabo una campaña de relaciones públicas para concienciar sobre el cambio climático.

Ng concluye que el modo por defecto de los modelos generativos de IA actuales es obedecer la ley y evitar hacer daño a las personas. “Incluso con la tecnología actual, nuestros sistemas son bastante seguros; a medida que avance la investigación sobre la seguridad de la IA, la tecnología será aún más segura”, escribió Ng en X.

En cuanto a las posibilidades de que una IA “desalineada” nos aniquile accidentalmente por intentar cumplir una petición inocente, pero mal formulada, Ng afirma que las probabilidades de que eso ocurra son ínfimas.

Pero Ng cree que existen algunos riesgos importantes asociados a la IA. En su opinión, la mayor preocupación es que un grupo terrorista o una nación-estado utilice la tecnología para causar daños deliberados, como mejorar la eficacia de la fabricación y detonación de un arma biológica.

Por ejemplo, la amenaza de que un delincuente utilice la IA para mejorar las armas biológicas fue uno de los temas tratados en la Cumbre sobre Seguridad de la IA celebrada en el Reino Unido.

ChatGPT DESCARGAR

División de opiniones en la cumbre

El Padrino de la IA, el profesor Yann LeCun, y el célebre profesor de física teórica Michio Kaku comparten la confianza de Ng en que la IA no se convertirá en un fenómeno apocalíptico, pero otros son menos optimistas.

A la pregunta de qué le quita el sueño cuando piensa en la inteligencia artificial, el CEO de Arm, Rene Haas, declaró a principios de este mes que lo que más le preocupa es el miedo a que los humanos pierdan el control de los sistemas de IA.

También conviene recordar que muchos expertos y directores generales han comparado los peligros que plantea la IA con los de la guerra nuclear y las pandemias.

Chema Carvajal Sarabia

Chema Carvajal Sarabia

Periodista especializado en tecnología, entretenimiento y videojuegos. Escribir sobre lo que me apasiona (cacharros, juegos y cine) me permite seguir cuerdo y despertarme con una sonrisa cuando suena el despertador. PD: esto no es cierto el 100 % de las veces.

Lo último de Chema Carvajal Sarabia

Directrices editoriales