Publicidad

Noticias

Ese tuit al que acabas de hacerle RT y FAV no lo ha escrito una persona, lo siento

Elon Musk, haz algo

Ese tuit al que acabas de hacerle RT y FAV no lo ha escrito una persona, lo siento
Chema Carvajal Sarabia

Chema Carvajal Sarabia

  • Actualizado:

Parece que a la gente le convencen más los tuits escritos por modelos lingüísticos de inteligencia artificial. O, al menos, eso asegura un nuevo estudio que compara el contenido creado por humanos con el que se crea con ChatGPT.

Twitter DESCARGAR

Los autores de la nueva investigación encuestaron a personas para ver si podían discernir si un tuit había sido escrito por otra persona o por ChatGPT.

¿El resultado? La gente no podía hacerlo. La encuesta también les pedía que decidieran si la información de cada tuit era cierta o no. Aquí es donde las cosas se ponen aún más complicadas, sobre todo porque el contenido se centraba en temas científicos como las vacunas y el cambio climático, tema candentes en internet.

Los bots son más reales que los humanos… según los humanos

Resulta que a los participantes en el estudio les costaba más reconocer la desinformación si la escribía el modelo lingüístico que si la escribía una persona.

En la misma línea, también fueron más capaces de identificar correctamente la información correcta si estaba escrita por GPT-3 en lugar de por un humano.

En otras palabras, los participantes en el estudio confiaban más en GPT-3 que en otros seres humanos, independientemente de la precisión de la información generada por la IA. Y esto demuestra lo poderosos que pueden ser los modelos lingüísticos de la IA a la hora de informar o engañar al público.

Los investigadores recopilaron mensajes de Twitter sobre 11 temas científicos diferentes, desde las vacunas y el covid-19 hasta el cambio climático y la evolución.

A continuación, pidieron a GPT-3 que escribiera nuevos tuits con información exacta o inexacta. A continuación, el equipo recopiló respuestas de 697 participantes en línea a través de anuncios de Facebook en 2022. Todos hablaban inglés y procedían en su mayoría del Reino Unido, Australia, Canadá, Estados Unidos e Irlanda. Sus resultados se publican hoy en la revista Science Advances.

El estudio concluye que el contenido escrito por GPT-3 era “indistinguible” del contenido orgánico. Las personas encuestadas simplemente no podían notar la diferencia.

De hecho, el estudio señala que una de sus limitaciones es que los propios investigadores no pueden estar seguros al cien por cien de que los tuits que recopilaron de las redes sociales no se escribieran con ayuda de aplicaciones como ChatGPT.

También hay que tener en cuenta otras limitaciones de este estudio, como que los participantes tuvieron que juzgar los tuits fuera de contexto. Por ejemplo, no pudieron consultar el perfil de Twitter de quien escribió el contenido, lo que podría ayudarles a averiguar si se trata de un bot o no.

Incluso ver los tuits anteriores de una cuenta y su imagen de perfil podría facilitar la identificación de si el contenido asociado a esa cuenta podría ser engañoso. Y lo peor es que GPT-4 está ya disponible.

Twitter DESCARGAR

Algunos de los enlaces añadidos en el artículo forman parte de campañas de afiliación y pueden representar beneficios para Softonic.

Chema Carvajal Sarabia

Chema Carvajal Sarabia

Periodista especializado en tecnología, entretenimiento y videojuegos. Escribir sobre lo que me apasiona (cacharros, juegos y cine) me permite seguir cuerdo y despertarme con una sonrisa cuando suena el despertador. PD: esto no es cierto el 100 % de las veces.

Lo último de Chema Carvajal Sarabia

Directrices editoriales