La inteligencia artificial avanza sin que los humanos no entiendan bien, todavía, algunos de sus procesos, como el aprendizaje de ciertas habilidades. Es una característica que los expertos llaman caja negra.
La BBC relató hace poco que desarrolladores de inteligencia artificial (IA) de Google se encontraron hace poco con una de esas misteriosas cajas negras.
Resultó que un software de IA adquirió la habilidad de entender un nuevo idioma, de manera inesperada. “Descubrimos que con muy pocas indicaciones en bengalí, ahora puede traducir todo el bengalí”, explicó James Maneka, el jefe de la división de IA de Google, en la reciente emisión del programa 60 Minutes, de la cadena CBS.
El director ejecutivo de Google, Sundar Pichai, comentó luego que esta capacidad de la IA de generar habilidades u ofrecer respuestas de manera inesperada es lo que los expertos llaman caja negra.
“No lo entiendes del todo. No puedes decir muy bien por qué (el robot) dijo esto o por qué se equivocó en esto otro. Tenemos algunas ideas y nuestra capacidad para entenderlo mejora con el tiempo. Pero ahí es donde estamos hasta ahora”, agregó.
Los riesgos de la IA y la caja negra
La BBC recuerda que el desarrollo de la inteligencia artificial se ha acelerado en los últimos años. Las grandes firmas tecnológicas invierten importantes sumas para generar chatbots como Bard, de Google; o ChatGPT, de OpenAi y Microsoft. Ahora, el multimillonario Elon Musk anunció que entraría a esta carrera.
Pero de otro lado, expertos en AI han señalado que puede haber riesgos si la tecnología no es controlada por sus desarrolladores. Ese es el campo donde aparece la caja negra, que es cuando la inteligencia artificial adquiere habilidades para las que no fue instruida.
Contraparte: la caja blanca
La idea de la caja negra es la parte opuesta a lo que los expertos en IA llaman caja blanca.
Ian Hogarth, cofundador de la empresa tecnológica Plural y autor del libro The Status of AI Reports, explicó a la BBC que cuando los desarrolladores de software crean un programa de manera “tradicional”, las líneas de código que introducen se reflejan claramente en el resultado que arroja el software.
Esta realidad es descrita comúnmente como una caja blanca. “Pero en la IA, los sistemas son realmente muy diferentes. Están más cerca de una caja negra en muchos sentidos, pues no entiendes realmente lo que sucede dentro”, añadió.