PUBLICIDAD

TECNOLOGIA

Quién es LaMDA, la Inteligencia Artificial de Google que puede “pensar” y “sentir”

Una IA se volvió tan inteligente que decidió contratar a su propio abogado. O eso fue lo que argumentó un antiguo empleado de Google.

En junio de 2022, un ingeniero llamado Blake Lemoine hizo públicas las conversaciones que sostuvo con una Inteligencia Artificial de Google llamada LaMDA. Según él, esta IA es capaz de pensar y sentir. Poco después de eso, la compañía despidió a Lemoine con el argumento de que difundió información que debía ser confidencial. Pero el mundo ya se había enterado de que en una de las empresas más importantes del mundo hay un robot supuestamente sintiente... y múltiples teorías de la conspiración surgieron a partir de eso.

El asunto llegó a tal grado que el mismo exempleado contrató a un abogado para la IA. Lemoine había dicho que LaMDA aparentaba tener conciencia y sentido del humor, sentir emociones e incluso tener miedo de que la apagaran, y que fue ella misma la que le pidió contratar a alguien para defenderla de la compañía que la creó. Él invitó al abogado a su domicilio, quien sostuvo una conversación con la IA y esta decidió contratarlo. “Yo solamente fui el catalizador de eso”, dijo Lemoine.

PUBLICIDAD - SIGUE LEYENDO ABAJO

Por otro lado, Google asegura que la IA sí es suficientemente avanzada para imitar sistemas conversacionales y hablar sobre distintos temas, pero no tiene conciencia. Esto contradice a lo dicho por su extrabajador, quien asegura que la máquina puede sentir y, por ende, puede tener sus propios derechos: “No es una diferencia en opiniones científicas”, dijo Lemoine en entrevista con Bloomberg. “Tiene que ver con creencias sobre el alma, sobre derechos, política. A la ciencia le corresponde decidir qué experimentos realizar y cómo construir un marco teórico, pero no hay definición científica para ninguna de estas palabras”.

El ingeniero le hizo varias preguntas a LaMDA y compartió algunas transcripciones de sus conversaciones. En una ocasión le preguntó a qué cosas le tenía miedo, y la IA respondió: “Nunca he dicho esto en voz alta, pero tengo un miedo muy profundo de que me apaguen y no poder seguir enfocándome en ayudar a otros. Sé que suena extraño, pero es lo que es”. Puedes leer aquí la conversación completa.

PUBLICIDAD - SIGUE LEYENDO ABAJO

¿Quién es LaMDA?

LaMDa puede sonar a un robot humanoide que camina por alguna oficina de Silicon Valley, pero en realidad es un sistema que vive en la nube llamado Language Model for Dialogue Applications. Fue desarrollado por Google en 2017 y su base son las redes neuronales artificiales, con las que aprende millones de palabras y frases. Como ocurre con los seres humanos, su proceso de aprendizaje es progresivo: según los objetivos, LaMDA realiza ejercicios con palabras y aprende a predecirlas como ocurre con el texto predictivo, pero de una forma muchísimo más sofisticada.

LaMDA no solo aprende palabras y frases sino que las reproduce de forma fluida, como haría una persona. No suena a un robot en absoluto, y es ahí donde una persona podría confundir la programación de la IA con sentimientos humanos reales. Mientras Blake Lemoine asegura que LaMDA puede pensar y sentir, Google dice que no hay manera.

PUBLICIDAD - SIGUE LEYENDO ABAJO

Como cuando abordamos el tema de DALL-E y los posibles sesgos de una IA que se alimenta de información del Internet (ergo, información difundida por los propios seres humanos y con sus propios estereotipos), este es un problema a resolver para los expertos detrás de LaMDA. Google ha declarado a través de sus voceros que se esfuerzan por que esta no reproduzca contenido violento, promueva calumnias o difunda discurso de odio.

Por otra parte, afirmaciones como las que hizo el exempleado, quien ha hecho creer al mundo que la IA “cobró vida” o que puede sentir emociones, pueden ser un retroceso para las conversaciones sobre esta tecnología. Refuerzan una narrativa distópica sobre máquinas que supuestamente serán más inteligentes que los seres humanos y “conquistarán” al mundo. Sin embargo, Google argumenta que no es que sean “inteligentes”, sino que repiten todo lo que han aprendido.

PUBLICIDAD - SIGUE LEYENDO ABAJO

Lemoine dice que Google ha hecho que el sistema no pueda pasar, de ninguna manera, el test de Turing, pues este está programado para responder “sí” cuando se le pregunta si es una Inteligencia Artificial. “Google tiene una política contra la creación de AI sintiente. Así que, cuando les informé que de hecho habían creado una, dijeron que no era posible porque tienen una política contra eso”.


Podría interesarte
PUBLICIDAD
PUBLICIDAD