Si te has vuelo un adepto de la inteligencia artificial, ChatGPT puede que lo tengas más que quemado del uso a estas alturas. De hecho, también sabrás de sobra que toda la información que compartes con ChatGPT se utiliza para seguir entrenando y mejorando al modelo.
Sin embargo, parece que los empleados de Samsung no conocían esto (o lo ignoraron deliberadamente) ya que han aparecido datos confidenciales de la compañía dentro de ChatGPT. En uno de los casos reportados, un trabajador copió y pegó código fuente de origen confidencial dentro de ChatGPT para pedirle que lo “optimizara”. Un tercero también compartió la grabación de una reunión para transcribir lo hablado y convertirlo en notas para una presentación. Ahora, toda esa información está a disposición de ChatGPT.

Muchos expertos en privacidad ya han hablado de este asunto y de la falta de control (como se ha podido comprobar ahora). Aunque ChatGPT puede ser muy útil para optimizar las tareas del día a día, los usuarios deben tener una cosa clara antes de usarlo: nunca se debe compartir información privada o confidencial con el modelo.
De hecho, esto es algo en lo que ha insistido la propia OpenAI públicamente (empresa tras ChatGPT) . Sin embargo, los expertos advierten que el modelo también puede violar el cumplimiento del RGPD (Reglamento General de Protección de Datos), razón por la cual Italia prohibió de forma reciente el uso de ChatGPT.
De momento, en Samsung se han puesto manos a la obra y ya se está investigando el caso para averiguar quiénes han sido los implicados en la filtración. En consecuencia, la compañía también ha considerado desarrollar su propio chatbot interno para evitar este tipo de deslices. De momento, solo hay una cosa clara: es poco probable que Samsung recupere alguno de los datos ya filtrados.