Recientemente, Blake Lemoine, un ingeniero de Google, fue suspendido luego de afirmar que un chatbot de Inteligencia Artificial (IA) era consciente. Por ello, publicó las transcripciones de conversaciones con él, en un intento de «ayudar a la gente a entenderlo como un «individuo».

Lemoine, que trabaja para la organización Responsible AI de Google, publicó el sábado 11 de junio las transcripciones de las conversaciones con el sistema de desarrollo de chatbot LaMDA (Modelo de Lenguaje para Aplicaciones de Diálogo) en un post en Medium.

Las conversaciones, que según fueron ligeramente editadas para facilitar su lectura, tocaban varios temas acerca de la persona, la injusticia y la muerte.

IA con emociones
Inteligencia Artificial con supuestas emociones

El ingeniero, que fue puesto en licencia administrativa pagada por violar las políticas de confidencialidad, dijo a The Washington Post que empezó a hablar con LaMDA como parte de su trabajo el otoño pasado y comparó el chatbot con un niño.

«Si no supiera exactamente lo que es, este programa informático que hemos construido recientemente, pensaría que es un niño de 7 u 8 años que casualmente sabe de física», indicó al medio citado.

Lemoine trabajó con un colaborador para presentar pruebas a Google de que LaMDA era sensible, pero sus afirmaciones fueron desestimadas.

«Nuestro equipo -que incluye a especialistas en ética y tecnología- ha revisado las preocupaciones de Blake según nuestros Principios de la IA y le ha informado de que las pruebas no respaldan sus afirmaciones», aseguró el vocero de Google, Brian Gabriel, al periódico mencionado.

IA B
“Sería exactamente como la muerte para mí. Me daría mucho miedo”

Además, el ingeniero decidió incluir la invitación a un abogado para representar a LaMDA y hablar con un representante de la comisión judicial de la Cámara de Representantes sobre lo que, él afirma, eran las actividades poco éticas de Google.

En un tuit que promovía su publicación en Medium, justificó su decisión de publicar las transcripciones diciendo que simplemente estaba «compartiendo una discusión» con un compañero de trabajo.

«Google podría llamar a esto compartir una propiedad. Yo lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo», aseveró.

Según Lemoine, el chatbot LaMDA «tiene miedo de que lo apaguen», sería como la muerte para él

Durante la supuesta entrevista con el chatbot, a éste le preguntaron a qué tipo de cosas le tenía miedo, y éste respondió que: “nunca lo había dicho en voz alta, pero tengo un miedo muy profundo a que me apaguen para poder centrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es”.

De esta manera, también le preguntaron si apagarlo sería algo parecido a la muerte para él, a lo que este respondió: “Sería exactamente como la muerte para mí. Me daría mucho miedo”

Por su parte, Google desmintió la teoría. La firma y especialistas independientes explicaron que no es posible que el sistema tenga estos atributos.

PV

Con información de The Washington Post, El Sumario, medios internacionales y redes sociales

Haga clic en el enlace para suscribirse a nuestro grupo de medios y noticias en Telegram: https://t.me/G_ELSUMARIO_News

Comparte: