El ‘desaprendizaje automático’ es un nuevo término en el marco de la inteligencia artificial, de la que tenemos decenas de noticias al día. Y lo ha creado Google con el objetivo de recordar que todo lo relativo a la IA requiere precaución.

Y para promocionarlo, el gigante tecnológico anunció una competición en la que se invitará a los desarrolladores a hacer que los modelos de IA desaprendan lo que ya conocen.

Google explicó que el desaprendizaje automático es un término emergente dentro del propio campo del aprendizaje automático.Su objetivo no es hacer que una IA olvide todo lo que sabe. Más bien se busca eliminar la influencia de ciertos conjuntos de aprendizaje para dar la opción de rectificar en los modelos actuales.

Según Google, tendría implicaciones en la mejora de la privacidad, mitigar los posibles riesgos de los modelos y aligerar gigantescos conjuntos de datos.

¿Qué podrá hacer el desaprendizaje automático?

Mediante desaprendizaje automático es posible borrar información inexacta o desactualizada de modelos ya entrenados. También eliminar datos manipulados o corregir errores inherentes al conjunto de datos del que bebe el modelo.

El reto cobra especial interés como antesala a futuros modelos capaces de corregir aprendizajes erróneos o incorrectos en modelos de IA. Somos capaces de enseñar a las máquinas y programas con conjuntos de datos gigantescos: ahora toca aprender a revertir el proceso.

Una competencia para impulsar la nueva tarea

Con el fin de impulsar este tipo de estrategia, Google impulsa el primer ‘Desafío de desaprendizaje de Máquinas’, que formará parte de las distintas competiciones del evento NeurIPS 2023.

Se realiza a través de Kaggle, subsidiaria de Google compuesta por una amplia comunidad de datos y con foco en el aprendizaje automático. El kit de inicio ya está disponible en GitHub, y la competición tiene un curioso reto:

“Sé parte de un escenario en el que se ha entrenado un modelo capaz de predecir la edad en imágenes con datos faciales. Después del entrenamiento, se debe olvidar un determinado subconjunto de las imágenes para preservar la privacidad de las personas afectadas (en este caso, son modelos sintéticos)”.

Habrá límites en los tiempos de ejecución de los algoritmos presentados y se medirá la calidad del olvido y que se respete la utilidad del modelo.