Publicidad

Noticias

OpenAI elimina la letra pequeña sobre el uso “militar” de su tecnología de IA

La victoria de Sam Altman parece que empieza a notarse

OpenAI elimina la letra pequeña sobre el uso “militar” de su tecnología de IA
Chema Carvajal Sarabia

Chema Carvajal Sarabia

  • Actualizado:

OpenAI, el creador de ChatGPT, ha modificado la letra pequeña de sus políticas de uso para eliminar el texto específico relacionado con el uso de su tecnología de IA o de grandes modelos lingüísticos para “fines militares y bélicos”.

ChatGPT DESCARGAR

Antes de que se realizara el cambio en las bases el pasado 10 de enero, la política de uso desautorizaba específicamente el uso de modelos de OpenAI para el desarrollo de armas, militar y bélico, y contenidos que promuevan, fomenten o representen actos de autolesión.

OpenAI afirma que las políticas actualizadas resumen la lista y hacen que el documento sea más “legible”, al tiempo que ofrecen “orientación específica para cada servicio”.

¿De verdad será más fácil usar la tecnología militarmente?

La lista se ha condensado ahora en lo que la empresa denomina Políticas Universales, que prohíben a cualquiera utilizar sus servicios para perjudicar a otros y prohíben la reutilización o distribución de cualquier resultado de sus modelos para perjudicar a otros.

Aunque la alternancia de las políticas se interpreta como un debilitamiento gradual de la postura de la empresa frente a la colaboración con organizaciones relacionadas con la defensa o el ejército, varios expertos, entre ellos Sam Altman, CEO de OpenAI, ya han destacado los “riesgos fronterizos” que plantea la IA.

Aunque todavía tenemos que ver sus implicaciones en la vida real, este cambio de redacción llega justo cuando las agencias militares de todo el mundo están mostrando interés en el uso de la IA.

La mención explícita de “militar y bélico” en la lista de usos prohibidos indicaba que OpenAI no podía trabajar con organismos gubernamentales como el Departamento de Defensa, que suele ofrecer lucrativos contratos a los contratistas.

De momento, la empresa no tiene un producto que pueda matar o causar daños físicos directamente a nadie. Sin embargo, como dijo The Intercept, su tecnología podría utilizarse para tareas como escribir código y procesar pedidos de adquisición de cosas que podrían utilizarse para matar a personas.

ChatGPT DESCARGAR

Cuando se le preguntó por el cambio en la redacción de su política, el portavoz de OpenAI, Niko Felix, declaró a la publicación que la empresa “pretendía crear un conjunto de principios universales que fueran fáciles de recordar y de aplicar, sobre todo teniendo en cuenta que nuestras herramientas ya son utilizadas globalmente por usuarios cotidianos que ahora también pueden crear GPT”.

Chema Carvajal Sarabia

Chema Carvajal Sarabia

Periodista especializado en tecnología, entretenimiento y videojuegos. Escribir sobre lo que me apasiona (cacharros, juegos y cine) me permite seguir cuerdo y despertarme con una sonrisa cuando suena el despertador. PD: esto no es cierto el 100 % de las veces.

Lo último de Chema Carvajal Sarabia

Directrices editoriales