Publicidad

Noticias

La IA es dañina, poco fiable y se está quedando sin datos

La IA es dañina, poco fiable y se está quedando sin datos
Chema Carvajal Sarabia

Chema Carvajal Sarabia

  • Actualizado:

Hace unos días os dijimos que la IA había pasado las capacidades humanas en casi todos los ámbitos. Al menos en una serie de tareas basadas en el rendimiento. Pero en el mundo de la inteligencia artificial no todo es positivo, como vamos a ver.

ChatGPT DESCARGAR

El informe 2024 AI Index, publicado recientemente por el Instituto de Inteligencia Artificial Centrada en el Ser Humano (HAI) de la Universidad de Stanford, examina exhaustivamente el impacto mundial de la IA.

Ahora que la IA está integrada en muchas facetas de nuestras vidas, hay que responsabilizarse de su contribución, especialmente en sectores importantes como la educación, la sanidad y las finanzas.

Sí, la incorporación de la IA puede aportar ventajas -optimización de procesos y productividad, descubrimiento de nuevos fármacos, por ejemplo-, pero también conlleva riesgos.

¿En qué campos se debe medir a la IA?

Según el nuevo informe del Índice de IA, los modelos de IA verdaderamente responsables deben cumplir las expectativas del público en áreas clave: privacidad de los datos, gobernanza de los datos, seguridad y protección, imparcialidad y transparencia y explicabilidad.

  • La privacidad de los datos salvaguarda la confidencialidad, el anonimato y los datos personales de un individuo. Incluye el derecho a consentir y a ser informado sobre el uso de los datos.
  • La gobernanza de datos incluye políticas y procedimientos que garantizan la calidad de los datos, centrándose en el uso ético.
  • La seguridad incluye medidas que garanticen la fiabilidad del sistema y minimicen el riesgo de uso indebido de los datos, las ciberamenazas y los errores inherentes al sistema.
  • Imparcialidad significa utilizar algoritmos que eviten la parcialidad y la discriminación y se ajusten a conceptos sociales más amplios de equidad.
  • Transparencia significa compartir abiertamente las fuentes de datos y las decisiones algorítmicas, así como considerar cómo se supervisan y gestionan los sistemas de IA desde su creación hasta su funcionamiento.
  • La explicabilidad se refiere a la capacidad de los desarrolladores para explicar los fundamentos de sus decisiones relacionadas con la IA en un lenguaje comprensible.

Para el informe de este año, los investigadores de Stanford colaboraron con Accenture para encuestar a 1.000 organizaciones de todo el mundo y preguntarles qué riesgos consideraban relevantes. El resultado fue la encuesta Global State of Responsible AI.

En esta encuesta los datos dejaron claro que la IA está siendo muchas cosas, pero ninguna de ellas es: responsable con la privacidad de los datos, gobernanza de los datos, seguridad y protección, imparcialidad y transparencia y explicabilidad.

ChatGPT DESCARGAR

Incluso hablan de que la IA se está quedando sin datos con los que entrenarse. Con los avances registrados en el aprendizaje automático, surge una pregunta obvia: ¿se quedarán los modelos sin datos de entrenamiento?

Según los investigadores de Epoch AI, que aportaron datos al informe, no se trata de si nos quedaremos sin datos de entrenamiento, sino de cuándo. Calculan que los informáticos podrían agotar los datos lingüísticos de alta calidad este mismo año, los de baja calidad en dos décadas y los de imágenes entre finales de la década de 2030 y mediados de la de 2040.

Chema Carvajal Sarabia

Chema Carvajal Sarabia

Periodista especializado en tecnología, entretenimiento y videojuegos. Escribir sobre lo que me apasiona (cacharros, juegos y cine) me permite seguir cuerdo y despertarme con una sonrisa cuando suena el despertador. PD: esto no es cierto el 100 % de las veces.

Lo último de Chema Carvajal Sarabia

Directrices editoriales