GPT-4o supone un “riesgo medio”, según OpenAI: ¿está la humanidad en problemas?
La compañía ha publicado la tarjeta del sistema de su último modelo de IA

- 9 de agosto de 2024
- Actualizado: 12 de junio de 2025, 14:29
OpenAI ha hecho pública la tarjeta del sistema de GPT-4o, un documento que detalla las medidas de seguridad y las evaluaciones de riesgos realizadas antes de lanzar su último modelo de inteligencia artificial, que debutó públicamente en mayo de este año.
Antes de la publicación de la tarjeta, OpenAI solicitó la ayuda de un grupo externo de expertos en seguridad conocidos como “red teamers” con el objetivo de identificar posibles riesgos en el modelo. Estos expertos evaluaron una serie de amenazas, incluyendo la posibilidad de que GPT-4o generara clones no autorizados de voces, contenido erótico o violento, y fragmentos de audio protegidos por derechos de autor.
Los resultados de estas evaluaciones indican que, según el marco de trabajo de OpenAI, GPT-4o presenta un riesgo “medio”. Este nivel de riesgo global se basa en la calificación más alta obtenida en cuatro categorías generales: ciberseguridad, amenazas biológicas, persuasión y autonomía del modelo. De estas, solo la categoría de persuasión fue clasificada como de riesgo medio, ya que se descubrió que algunos textos generados por GPT-4o podían influir en la opinión de los lectores más que los escritos por humanos, aunque no de manera consistente.

Lindsay McCallum Rémy, portavoz de OpenAI, declaró a The Verge que la tarjeta del sistema de GPT-4o incluye evaluaciones internas junto con pruebas realizadas por equipos externos como Model Evaluation and Threat Research (METR) y Apollo Research. Aunque OpenAI ha publicado anteriormente tarjetas de sistema para otros modelos como GPT-4 y DALL-E 3, la publicación de esta tarjeta ocurre en un momento crucial, en medio de crecientes críticas sobre las normas de seguridad de la empresa.
Además, la publicación de esta tarjeta coincide con el desarrollo de un nuevo proyecto de ley en California, Estados Unidos, que podría imponer mayores restricciones y responsabilidades legales a los laboratorios de IA, como OpenAI, si sus modelos se usan de forma perjudicial.

Publicista y productor audiovisual enamorado de las redes sociales. Paso más tiempo pensando a qué videojuegos voy a jugar que jugándolos.
Lo último de Pedro Domínguez
- Google quiere hacer más inteligente tu hogar gracias a estas nuevas funciones
- La última y brillante estrategia de Elon Musk para atraer anunciantes a Twitter es… ¿demandarlos?
- Nvidia lanza una nueva actualización de su nueva “app todo en 1” repleta de mejoras
- Posiblemente estemos (aún) más solos en el universo de lo que pensábamos
También te puede interesar
- Noticias
Ya disponible en tráiler de la próxima unión entre Richard Linklater y Ethan Hawke
Leer más
- Noticias
‘Lilo y Stitch 2’ podría traer de vuelta a la única persona capaz de salvar la secuela
Leer más
- Noticias
Hay un personaje de El Pacificador que ya no será canon en la temporada 2
Leer más
- Noticias
Aún no se ha estrenado ‘Mortal Kombat 2’ y ya han pensado en hacer todo un universo cinematográfico
Leer más
- Noticias
Es posible que Warner esté firmando su próximo fracaso en el mundo de los videojuegos
Leer más
- Noticias
Hay un actor que no volverá jamás a ‘The Big Bang Theory’, y tiene sus motivos
Leer más