loader image

La IA enfrenta el desafío de aprender a olvidar los errores asimilados

Brian Hood descubrió un día que ChatGPT le atribuía un pasado criminal, pero para resolver este error, este político australiano indagó en un problema que plantea también un desafío para los ingenieros: cómo enseñar a la Inteligencia Artificial (IA) a borrar información errónea.

Hood intentó una solución convencional y amenazó con demandar por difamación a OpenAI, la empresa creadora de ChatGPT. 

Pero entrenar a este tipo de robot es un proceso lento y costoso, por lo que este problema expone a la luz un desafío que será crucial en los próximos años, especialmente de cara a la reglamentación en la Unión Europea sobre protección de los datos personales. 

Hood afirma que sus comunicaciones con OpenAI no fueron de gran ayuda, pero que sus quejas, que inundaron los medios, solucionaron el problema cuando la empresa actualizó la aplicación y el robot dejó de repetir estas afirmaciones falsas sobre sus antecedentes penales. 

«Irónicamente, la gran cantidad de [información en] prensa sobre mi historia corrigió los registros», relató a AFP Hood, que es alcalde de la ciudad de Hepburn, en Australia. 

La empresa OpenAI no respondió a las peticiones de comentarios sobre este tema. 

«La capacidad de eliminar datos de las bases de datos de entrenamiento es un tema crítico de cara al futuro», señaló Lisa Given, de la Universidad RMIT de Melbourne, en Australia. 

En el caso de los buscadores de internet, es posible borrar entradas, pero este proceso no es tan simple con los modelos basados en la IA. 

En respuesta a este desafío, un grupo de científicos está estudiando un nuevo campo denominado el «desaprendizaje automático», que trata de entrenar algoritmos para que «olviden» datos que sean problemáticos.

– «Una herramienta interesante» –

Un experto en este campo, Meghdad Kurmanji de la Universidad de Warwick en el Reino Unido, explicó a AFP que este tema comenzó a cobrar relevancia en los últimos tres o cuatro años. 

Entre quienes se apuntaron a este desafío está Google DeepMind, la división de IA del gigante californiano.

Los expertos de Google redactaron junto a Kurmanji un artículo publicado el mes pasado en el que proponen un algoritmo para depurar los datos seleccionados de las bases que componen los algoritmos en los que se basan ChatGPT y el chatbot Bard de Google.

Además, Google lanzó una competencia en junio para medir distintos métodos para «desaprender», que hasta ahora atrajo a más de 1.000 participantes.

Kurmanji afirma que «desaprender» puede ser una «herramienta muy interesante» para que los motores de búsqueda administren las peticiones para eliminar contenido, por ejemplo debido a asuntos relacionados con las leyes sobre la privacidad.

El experto afirmó además que el algoritmo también logró buenos resultados en pruebas de eliminación de material protegido por derechos de autor y en la corrección de sesgos.

Comparte en tus redes

¡Suscríbete para siempre estar informado!

Loading

Utilizamos Cookies propias y de terceros para mejorar la experiencia del usuario a través de su navegación. Acepta para seguir navegando en nuestro sitio. ¡Gracias! Política de Cookies