Open AI está encontrando un problema cada vez mayor con ChatGPT desde que se implementó GPT-4: aunque aumenta sus posibilidades a todos los niveles y es más inteligente que nunca, también es más fácil de engañar y de manipular. Al fin y al cabo, cuando más “humana” sea la IA, menos defensas tendrá contra los engaños y manipulaciones a través de mensajes.
Parece que la Inteligencia Artificial seguirá siendo un tema candente a corto y medio plazo, vistas las millonarias inversiones que las empresas están llevando a cabo para desarrollar estos sistemas. Sin embargo, los avances no son siempre lineales, y a veces un paso adelante puede implicar varios pasos atrás.
Más fiable, pero más manipulable
Con el paso de los meses, ChatGPT ha logrado mejorar en otro de los aspectos que tanto se le ha criticado, el de difundir respuestas específicas con datos falsos. Sin embargo, tal y como revela la investigación de expertos de las Universidades de Illinois Urbana-Champaign, Stanford , California, Berkeley, Microsoft Research y el Centro de Seguridad de la IA, este avance ha supuesto un arma de doble filo para la IA y ahora es más propensa a que los usuarios puedan manipularla.
Y es que, si bien ahora será menos propensa a dar pie a opiniones tóxicas o discursos de odio, tiene más facilidades para filtrar datos personales e información privada de los usuarios cuyos datos ha recopilado. Porque, además, cabe recordar que Open AI ha entrenado a su software utilizando sin permiso todo tipo de contenidos que hay en la red, tengan o no derechos de autor, o sean datos privados de los usuarios.
Retos y peligros de la IA
A nivel social, la Inteligencia Artificial en sí también puede suponer un arma de doble filo. Por un lado, encontramos los usos que busca Google a través de dispositivos nuevos como el Pixel 8, que trata de enfocar esta tecnología como una herramienta que mejora la calidad de vida de los usuarios. Por el otro, empresas millonarias que, en aras de reducir costes, buscan sustituir el capital humano por Inteligencia Artificial, o incluso suplantación (los conocidos “deepfakes”) y ciberdelitos.
Eso ha hecho que este 2023 encontremos ambos escenarios en diversos ámbitos: grandes avances en calidad de servicios para los usuarios, y despidos en multitud de compañías que han decidido hacer de la Inteligencia Artificial una herramienta de máxima plusvalía. Es por eso que, de cara a los próximos meses y años, uno de los mayores desafíos de esta área lo tendrán que llevar a cabo las instituciones, decidiendo hasta qué punto puede tener la IA libertad y repercusión en el mercado laboral.