Publicidad

Noticias

¿Fin de los deepfakes? La nueva herramienta de OpenAI puede hacerlo posible

Desde OpenAI aseguran que la herramienta es capaz de detectar imágenes generadas por IA con un 99% de fiabilidad.

¿Fin de los deepfakes? La nueva herramienta de OpenAI puede hacerlo posible
María López

María López

  • Actualizado:

El creciente auge de los modelos generativos potenciados por IA ha hecho que surjan nuevos problemas con los que lidiar de forma online. Uno de estos son los deepfakes, montajes falseados donde se usurpa la identidad de otra persona, ya sea en fotos, vídeos o incluso audios. Cada vez es más fácil crear este tipo de contenido debido a la proliferación de aplicaciones destinados para ello y por si fuera poco, su demanda también crece de forma exponencial.

ChatGPT DESCARGAR

OpenAI, una de las empresas más importantes del panorama de las IA, afirma estar desarrollando una herramienta capaz de detectar imágenes falsas y con un alto grado de precisión. Ha sido durante el Tech Live de Wall Street Journal donde pudimos escuchar a Mira Murati y Sam Altman (líder del equipo de desarrollo de ChatGPT y CEO de OpenAI, respectivamente) hablar sobre ello.

Murati declaró este martes que dicha herramienta es capaz de detectar imágenes generadas por inteligencia artificial con un 99% de fiabilidad. De momento no ha especificado cuándo será lanzado públicamente, pero si que sabemos que está probándose de forma interna por la compañía.

OpenAI ya lanzó el pasado mes de enero una herramienta muy similar que servía para determinar si los textos habían sido generados por IA. Sin embargo, su escasa fiabilidad hizo que fuese retirada al poco tiempo. Por aquel entonces, la compañía argumentó que mejoraría dicho software y también se comprometió a lanzar otra herramienta similar para detectar audios o imágenes creadas por IA.

Lo cierto es que la necesidad por este tipo de “detectores” crece a medida que pasa el tiempo. La ausencia de leyes reguladoras y los grandes avances de estos modelos ha hecho que cada vez existan más y más bulos sobre todo tipo de acontecimientos. Y es que muchas veces esto puede suceder hasta de forma involuntaria.

Aunque muchos confíen en ellos, incluso los chatbots tan capaces como el archiconocido ChatGPT son propensos a inventarse datos o eventos. Este efecto es conocido como “alucinación” y no es algo que pueda ser erradicado, de momento. Desde OpenAI aseguran que las alucinaciones de su más reciente modelo, GPT-4, han sido reducidas pero que de momento, “no han llegado al punto al que deberían”.

ChatGPT DESCARGAR
María López

María López

Artista de vocación y amante de la tecnología. Me ha gustado cacharrear con todo tipo de gadgets desde que tengo uso de razón.

Lo último de María López

Directrices editoriales