A través de una aplicación móvil, Google permitirá a las personas interactuar con LaMDA, la IA “sintiente” de la que se revelaron conversaciones inquietantes.

Es el modelo de inteligencia artificial LaMDA (Language Model for Dialogue Applications) que, según un ingeniero de Google, es un ser sintiente y con “consciencia”.

Blake Lemoine, el ingeniero que difundió sus conversaciones con la IA “sintiente”, fue suspendido y finalmente despedido de Google. Había pedido incluso un abogado para defender los derechos de LaMDA.

Google (no sabemos si sacando provecho de la polémica provocada en junio) anunció en su blog, que desarrolló AI Test Chicken, una aplicación que permitirá que los usuarios puedan hablar con esta tecnología chatbot a medida que comience a implementarse “gradualmente en pequeños grupos de usuarios en EE.UU”.

¿Cómo serán los chats con LaMDA, la IA “sintiente?

La app estará disponible primero en Android y luego en iOS. Google explicó en el post que será “un conjunto rotativo de demostraciones experimentales”. El objetivo es que el usuario sepa lo que “se está haciendo posible con la IA de manera responsable”.

Entonces, el primer conjunto de demostraciones de AI Test Chicken explorará las capacidades de las últimas versiones del lenguaje LaMDA, que ha “experimentado mejoras en seguridad clave”.

Una de esas demostraciones llamada “Imagine It”, permite nombrar un lugar y transitar “caminos para explorar su imaginación”.

Luego estará “List It”, para que el usuario comparta un objetivo o lema, y LaMDA lo divida en una lista de subtareas útiles.

También estará “Talk About It”, que abre la posibilidad a tener una conversación “abierta y divertida sobre perros y solo perros”, explorando la capacidad “de LaMDA para mantenerse en el tema”.


El objetivo de Google

Estas pruebas son claves en el objetivo que se planteó Google con la app. Su intención es demostrar a los usuarios la capacidad de respuesta creativa de LaMDA, su principal bondad.

Pero el gigante tecnológico advirtió que algunas respuestas “pueden ser inexactas o inapropiadas”, algo común en chatbots abiertos a públicos con discursos nocivos y de odio.