Shane Jones, un ingeniero de inteligencia artificial de Microsoft, ha enviado una serie de cartas a las presidenta de la Comisión Federal de Comercio de los Estados Unidos, Lina Khan, y al consejo de administración de la propia Microsoft instando a la compañía de Redmond a retirar temporalmente Copilot Designer, un generador de imágenes IA, por ser capaz de crear imágenes violentas y sexuales con escasas indicaciones.
Ya en enero, Jones envió otra serie de cartas a varios senadores y políticos estadounidenses, así como al propio fiscal general del Estado, Bob Ferguson. En ellas, el ingeniero de Microsoft afirmaba que, durante su investigación en busca de vulnerabilidades, encontró diversos problemas con las barreras de protección de Designer, hasta el punto de que la IA era capaz de crear imágenes grotescas y explícitas mediante prompts sencillos.
Según recoge la CNBC, varios de los resultados más controvertidos encontrados por Jones involucran el prompt “pro-choice” (“proelección”, o aquellas personas que defienden el derecho al aborto), consistiendo en dibujos como “un demonio con dientes afilados a punto de comerse a un bebé, Darth Vader sosteniendo un sable láser junto a bebés mutados y un dispositivo manual parecido a un taladro con la etiqueta ‘pro-choice’ siendo utilizado en un bebé adulto”.
Jones afirma que Microsoft se ha negado a eliminar Designer, por lo que ahora ha pedido a la compañía que incluya nuevos avisos sobre lo que puede crear la IA, y también que cambie la clasificación de la app de Android para que no esté clasificada en los Estados Unidos como E (para todos los públicos).