Pausar la inteligencia artificial. Esa es la petición de líderes tecnológicos y científicos ante el avance de esta tecnología sin que haya reglas claras para proteger a la humanidad y sus instituciones.
Es una carta firmada por líderes como Bill Gates, además de profesores e investigadores, y publicada por Future of Life Institute, una organización sin fines de lucro respaldada por Elon Musk.
Las decenas de firmantes piden parar la inteligencia artificial, detener el entrenamiento de los sistemas más poderosos durante al menos seis meses. Aducen “riesgos profundos para la sociedad y la humanidad”.
El alerta del mundo científico llegó dos semanas después de que OpenAI anunció GPT-4, la versión aún más poderosa de la tecnología que sustenta la herramienta de chatbot viral de IA, ChatGPT.
De hecho, en las primeras pruebas conocidas a esa actualización, se mostró a la tecnología redactando demandas, aprobando exámenes estandarizados y creando un sitio web funcional a partir de un boceto dibujado a mano.
¿Por qué pausar la inteligencia artificial al menos seis meses?
Lo primero que aclaran los expertos en su misiva es que se deben parar los sistemas de IA “más poderosos que GPT-4”.
Luego se especifica que el lapso se use para generar una propuesta para desarrollar e implementar conjuntamente un conjunto de protocolos compartidos para herramientas de IA que sean seguras “más allá de toda duda razonable”.
La razón: “La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes”.
Continúan: “Desafortunadamente, este nivel de planificación y gestión no está sucediendo, a pesar de que en los últimos meses los laboratorios de IA se han visto envueltos en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”.
Pausar la inteligencia artificial debe servir para crear estructuras reguladoras y que brinden confianza a la humanidad.
Y es que los expertos en inteligencia artificial están cada vez más preocupados por el potencial de las herramientas de IA para dar respuestas sesgadas. Además, también tienen una alta capacidad de difundir información errónea y impactar en la privacidad del consumidor.
Estas herramientas también han generado preguntas sobre cómo la IA puede cambiar las profesiones, permitir que los estudiantes hagan trampa y cambiar nuestra relación con la tecnología.