La ética y las grandes compañías no son términos que suelan llevarse bien. Meta lo ha vuelto a demostrar disolviendo su equipo de Inteligencia Artificial Responsable (RAI por sus siglas en inglés). Tras esto, ha empleado sus recursos para potenciar el desarrollo de proyectos basados en inteligencia artificial generativa.
Según podemos leer en The Information, los miembros de la comisión pasarán a trabajar en productos basados en la IA generativa mientras que otros se enfocarán en la infraestructura de IA de Meta. Al contrario de lo que pueda parecer, el conglomerado liderado por Zuckerberg afirma que quiere trabajar en la creación de una IA responsable (explicado por ellos en su propia página web).
El equipo ya sufrió una reestructuración a principios de este mismo año, qué dejó al RAI bajo mínimos. Dicho equipo llevaba en vigencia desde 2019, pero sus iniciativas pasaban siempre por largas negociaciones antes de que pudieran llegar a implementarse.

La función de la RAI era primordialmente supervisar el proceso de entrenamiento de la IA. El equipo revisaba los datos usados para dichos entrenamientos y ver si la información era diversa y adecuada. Y es que a pesar de lo avanzados que son estos sistemas, muchos terminan provocando problemas. Entre algunos de los más sonados se encuentra el caso de Instagram, cuyo algoritmo promocionaba cuentas con contenido de abuso sexual a menores.
Entre algunos de los proyectos que tiene en curso Meta se encuentra LlaMa, su propia versión de ChatGPT. Está disponible para su descarga y puedes usarlo en todo tipo de ámbitos. De momento, Meta se encuentra batallando en los juzgados de Estados Unidos. ¿La causa? Haber sido demandada por los daños psicológicos que causan sus redes (Instagram, Facebook, etc.) sobre los más jóvenes.