El empresario y escritor egipcio Mo Gawdat, quien fue director comercial de Google X, cree que puede darse una lucha de inteligencia artificial contra humanos. Plantea tres escenarios posibles.
Experto en IA y autor de varios libros sobre el tema Gawdat advirtió en unas declaraciones a The Sun, que sus planteamientos son “casi inevitable”. Un conflicto que enfrente a inteligencia artificial contra humanos es previsible.
“Tarde o temprano, muchas decisiones que son importantes para la humanidad, incluidas algunas decisiones de defensa, se entregarán a la IA”.
Si esa inteligencia artificial se declara en rebeldía, como lo hace SkyNet en la trilogía cinematográfica de El Exterminador, habría tres posibles escenarios.
Tres escenarios en la guerra inteligencia articifial contra humanos
PRIMER ESCENARIO. Gawdat lo llama un “escenario de errores”. Ocurre cuando la IA tomaría decisiones alineadas con sus objetivos, pero, a la vez, no con los mejores intereses de la humanidad. Los resultados de tal desalineación probablemente serían catastróficos.
SEGUNDO ESCENARIO. Bautizado por Gawdat “elemento de conflicto”, y muy similar al primero. Lo describió con un ejemplo muy particular. “En un conflicto en torno a la energía, la IA -que funciona con datos y espacio para almacenarlos- podría entender que Nueva York es un muy buen lugar instalar centros de datos y que los humanos están usando ese espacio de manera innecesaria”.
Gawdat explicó que para dejar espacio para más centros de datos, la IA podría tomar decisiones que no estén alineadas con los intereses humanos, pero sí completamente alineadas con sus propios intereses. Los humanos serían eliminados de la ecuación a través de varios métodos.
TERCER ESCENARIO. “Una cuestión de irrelevancia”, según Gawdat. La IA podría entender que es muy avanzada y que los humanos son irrelevantes.
En este caso, los humanos serían tratados de la misma manera que actualmente tratamos a los insectos, sin preocuparnos por nuestro bienestar y bienestar. El daño causado a los humanos por la IA sería simplemente un “subproducto del objetivo principal”, dijo Gawdat.