IA

GPT-4o supone un “riesgo medio”, según OpenAI: ¿está la humanidad en problemas?

La compañía ha publicado la tarjeta del sistema de su último modelo de IA

Avatar de Pedro Domínguez

Pedro Domínguez

  • 9 de agosto de 2024
  • Actualizado: 12 de junio de 2025, 14:29

OpenAI ha hecho pública la tarjeta del sistema de GPT-4o, un documento que detalla las medidas de seguridad y las evaluaciones de riesgos realizadas antes de lanzar su último modelo de inteligencia artificial, que debutó públicamente en mayo de este año.

ChatGPT DESCARGAR

Antes de la publicación de la tarjeta, OpenAI solicitó la ayuda de un grupo externo de expertos en seguridad conocidos como “red teamers” con el objetivo de identificar posibles riesgos en el modelo. Estos expertos evaluaron una serie de amenazas, incluyendo la posibilidad de que GPT-4o generara clones no autorizados de voces, contenido erótico o violento, y fragmentos de audio protegidos por derechos de autor.

Los resultados de estas evaluaciones indican que, según el marco de trabajo de OpenAI, GPT-4o presenta un riesgo “medio”. Este nivel de riesgo global se basa en la calificación más alta obtenida en cuatro categorías generales: ciberseguridad, amenazas biológicas, persuasión y autonomía del modelo. De estas, solo la categoría de persuasión fue clasificada como de riesgo medio, ya que se descubrió que algunos textos generados por GPT-4o podían influir en la opinión de los lectores más que los escritos por humanos, aunque no de manera consistente.

Lindsay McCallum Rémy, portavoz de OpenAI, declaró a The Verge que la tarjeta del sistema de GPT-4o incluye evaluaciones internas junto con pruebas realizadas por equipos externos como Model Evaluation and Threat Research (METR) y Apollo Research. Aunque OpenAI ha publicado anteriormente tarjetas de sistema para otros modelos como GPT-4 y DALL-E 3, la publicación de esta tarjeta ocurre en un momento crucial, en medio de crecientes críticas sobre las normas de seguridad de la empresa.

Además, la publicación de esta tarjeta coincide con el desarrollo de un nuevo proyecto de ley en California, Estados Unidos, que podría imponer mayores restricciones y responsabilidades legales a los laboratorios de IA, como OpenAI, si sus modelos se usan de forma perjudicial.

ChatGPT DESCARGAR

Últimos artículos

Cargando el siguiente artículo