El mundo de la inteligencia artificial abre tantas posibilidades como amenazas. Y si bien ChatGPT te puede hacer un resumen de El Quijote, otra herramienta puede hacerse pasar por el Presidente del país más poderoso del mundo.
En Estados Unidos, como parte de una táctica de desinformación y de cara a las presidenciales de final de año, alguien ha enviado llamadas automáticas haciéndose pasar por el Presidente Joe Biden.
Sonaba como si Biden dijera a la gente que no votara en unas elecciones primarias, pero podría haber sido IA. Pero nadie, ni siquiera los vendedores de software de detección de falsificaciones, se pone de acuerdo.
El intento de fraude electoral plantea otro tipo de desafío.
Un artículo de Bloomberg de esta semana analizaba lo que podría haber sido el primer truco sucio de audio deepfake contra Joe Biden. Pero nadie sabe si fue un actor imitándolo o una IA.
Citando a otros dos fabricantes de detectores, ElevenLabs y Clarity, Bloomberg no pudo encontrar ninguna certeza.
El software de ElevenLabs consideró improbable que el ataque fuera el resultado de un fraude biométrico. No así Clarity, que aparentemente encontró que era probable que fuera un deepfake en un 80%.
Un equipo de estudiantes y antiguos alumnos de la Universidad de California – Berkeley afirman que han desarrollado un método de detección que funciona sin apenas errores.
Por supuesto, eso es en un entorno de laboratorio y el equipo de investigación considera que el método requerirá “contexto adecuado”, para ser entendido.
El equipo dio a un modelo de aprendizaje profundo audio en bruto para procesar y extraer representaciones multidimensionales. El modelo utiliza estas representaciones para distinguir lo real de lo falso. Pero aún queda que lo utilicen en el mundo real. Habrá que ver qué dice su prueba con el audio de Biden.