Publicidad

Noticias

Formas en las que la IA ha cambiado internet este 2023

Es el repaso que estabas deseando leer este final de año: sientate y disfruta

Formas en las que la IA ha cambiado internet este 2023
Chema Carvajal Sarabia

Chema Carvajal Sarabia

  • Actualizado:

Cuando OpenAI lanzó ChatGPT en noviembre de 2022, se convirtió en la aplicación de mayor crecimiento de todos los tiempos, causó pánico en Google y encendió la mecha de una carrera de IA generativa dentro de Big Tech.

ChatGPT DESCARGAR

Desde entonces, el auge de la IA generativa ha sido calificado como la próxima revolución industrial, ha planteado cuestiones filosóficas y éticas sobre la supervivencia humana y ha hecho que los gobiernos presten atención a su potencial destructivo. Así que, sí, ha sido un año muy importante para la IA.

En ninguna parte es esto más evidente que en Internet. La IA generativa en 2023 ha sido un viaje salvaje que nos ha envejecido. Y, ahora, vamos a repasar como la IA ha transformado la red en solo un año.

Los deepfakes se han generalizado

Los deepfakes, o medios alterados por la IA para que parezcan reales, han sido motivo de preocupación durante algún tiempo. Pero este año, la amplia disponibilidad de herramientas de IA generativa ha facilitado más que nunca la creación de imágenes, vídeos y audio realistas.

OpenAI DALL-E 3, Google Bard y el generador de imágenes SGE, Microsoft Copilot (antes Bing Chat Image Creator) y Meta’s Imagine son ejemplos de modelos que utilizan IA generativa para crear imágenes a partir de mensajes de texto.

Incluso las plataformas de medios Shutterstock, Adobe y Getty Images han entrado en el juego con sus propias herramientas de generación de imágenes por IA.

Muchos de estos servicios cuentan con barreras y restricciones para combatir las responsabilidades y los perjuicios reales que plantea la generación de imágenes por IA. Poner marcas de agua en las imágenes para indicar que son creaciones de la IA, negarse a generar rostros fotorrealistas o renders de personajes públicos y prohibir contenidos peligrosos o inapropiados son algunas de las formas que tienen de impedir un uso nefasto.

Pero eso no ha impedido que la gente encuentre la manera. Este año, una canción que sonaba convincentemente a Drake y TheWeeknd circuló por los servicios de streaming de música antes de ser retirada. Usando IA, Tom Hanks parecía estar promocionando un plan dental en Instagram, y la voz y la imagen de Scarlett Johansson se usaron para promocionar una aplicación de IA de anuarios de los 90.

Alerta sobre los datos de entrenamiento

¿Cómo han llegado a ser tan buenos los LLM? Se entrenan con la totalidad de Internet. Todo: publicaciones de Reddit, publicaciones en redes sociales, páginas de Wikipedia, cientos de miles de libros pirateados, sitios de noticias, artículos académicos, subtítulos de YouTube, blogs de comida, memes, etc.

La cuestión de si está permitido o no raspar Internet para entrenar modelos de inteligencia artificial se vuelve turbia. El bufete de abogados Clarkson Law Firm presentó demandas colectivas contra OpenAI y Google por supuesto “robo” de información personal sin consentimiento y violación de derechos de autor. Meta y Microsoft también se enfrentan a demandas por entrenar sus modelos con la base de datos Books3, que incluía libros pirateados.

En un caso de infracción más flagrante de los derechos de autor, la autora Jane Friedman descubrió un alijo de libros generados por IA y escritos en su nombre a la venta en Amazon.

Algunos dicen que utilizar datos disponibles públicamente en Internet es un uso legítimo. Otros afirman que las leyes sobre privacidad y derechos de autor no se redactaron teniendo en cuenta el sofisticado aprendizaje automático y que deberían actualizarse. Todos coinciden en que es un tema realmente complejo que aún está por resolver.

Nos introdujo en el contenido generado por IA

Una de las asombrosas capacidades de la IA generativa es escribir un lenguaje que suene natural. En la actualidad, la mayoría de los contenidos generados por IA se leen como los de un estudiante de bachillerato que no ha hecho toda la lectura: propensos a las imprecisiones y ligeramente robóticos.

Pero con el tiempo, los LLM están mejorando, haciendo que la automatización de artículos, comunicados de prensa, listas de empleo, trabajos creativos y mucho más sea demasiado tentadora como para dejarla pasar para muchos.

Sin embargo, los primeros intentos de presentar a los consumidores contenidos generados por IA se han topado con numerosas reacciones en contra. CNET enfureció tanto a sus empleados como a sus lectores al publicar discretamente artículos generados por IA (muchos de los cuales eran inexactos). Gizmodo fue sorprendida publicando un artículo inexacto generado por IA sobre Star Wars y Sports Illustrated simplemente se inventó un autor que no parece existir.

En otros lugares de Internet, Meta se ha lanzado de lleno a la IA generativa presentándonos “Personas” basadas en famosos, pero que en realidad no son esas figuras de alto nivel, y está creando herramientas para que los anunciantes creen anuncios generados por IA.

Incluso la industria musical está entrando en el juego. Se dice que la discográfica UMG, que representa a Drake, está explorando una forma de vender las voces de los músicos para generar música de IA y dividir los derechos de licencia con el artista.

Si los contenidos generados por IA han llegado para quedarse, la verdadera cuestión es quién se beneficia de ellos y a costa de quién.

Prometen cambiar nuestra relación con el trabajo

La promesa de aumentar la productividad laboral ha sido uno de los principales argumentos de venta de las empresas tecnológicas que han lanzado herramientas de IA este año. Microsoft, Google, Zoom, Slack, Grammarly y otras han pregonado la capacidad de la IA generativa para reducir las tareas a una fracción del tiempo.

Pero con estas herramientas aún en pañales, y muchas de ellas en fase piloto o sólo disponibles para clientes de pago, los efectos a gran escala aún están por ver.

Lo que sí sabemos es que las herramientas de IA generativa para el trabajo no son fiables, al menos no sin supervisión humana, lo que echa por tierra toda la promesa de productividad.

Definitivamente, deberías comprobar dos veces sus respuestas, y debes tener cuidado con lo que compartes con LLM como ChatGPT. Samsung lo descubrió por las malas cuando sus empleados compartieron inadvertidamente información confidencial con ChatGPT, sin saber que sus datos podían utilizarse para entrenar el modelo.

Chema Carvajal Sarabia

Chema Carvajal Sarabia

Periodista especializado en tecnología, entretenimiento y videojuegos. Escribir sobre lo que me apasiona (cacharros, juegos y cine) me permite seguir cuerdo y despertarme con una sonrisa cuando suena el despertador. PD: esto no es cierto el 100 % de las veces.

Lo último de Chema Carvajal Sarabia

Directrices editoriales