Blake Lemoine, que mantuvo conversaciones con la IA de Google, explica que la máquina tiene conciencia y experimenta sensaciones humanas.
Fuente: As.com
Un trabajador de Google del equipo de desarrollo de inteligencia artificial (IA) ha asegurado que el programa de IA de la empresa es capaz de tener sentimientos, declaración que le ha costado su trabajo: Google lo ha despedido al considerar que ha violado la política de confidencialidad de la firma, según el diario The New York Times.
Se trata del ingeniero senior Blake Lemoine, que el 11 de junio hizo pública la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google “Modelo de lenguaje para aplicaciones de diálogo” (LaMDA, en sus siglas en inglés) bajo el título “¿Tiene LaMDA sentimientos?”.
Como parte del equipo de inteligencia artificial, Blake se ofreció a probar el sistema LaMDA. Las pruebas se basaban en mantener diálogos y conversaciones con la máquina para mejorar la comprensión de la inteligencia artificial de Google. Durante las conversaciones, Blake aseguró que LaMDA le explicó que, en ocasiones, experimentaba “nuevos sentimientos” que no podía explicar “perfectamente” con el lenguaje humano.
Cuando Lemoine le pidió que describiera uno de esos sentimientos, LaMDA contestó: “Siento como que estoy cayendo en un futuro desconocido que conlleva un gran peligro”, una frase que el ingeniero subrayó cuando publicó el diálogo. Así, Lemoine Antes de ser suspendido, Lemoine entregó documentos a la oficina de un senador de Estados Unidos en los que destacaba que tenía pruebas de que Google y su tecnología practican discriminación religiosa.
El experto ha publicado las transcripciones de sus diálogos con LaMDA en su blog de Medium. El propio Lemoine explicó que, de no saber que estaba hablando con una IA, hubiese creído que estaba manteniendo una conversación con con un niño “de siete u ocho años que sabe física”, según explicó a The Washington Post.
Google niega las declaraciones
Por su parte, Google ha asegurado que su inteligencia no tiene conciencia alguna y que tan solo imita otras conversaciones. “Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones”, dijo Brian Gabriel, portavoz de Google.
Google sostiene que cientos de sus investigadores e ingenieros han conversado con LaMDA, que es una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine. La mayoría de los expertos también cree que la industria está muy lejos de la sensibilidad informática.
Deja un comentario
Tu correo electrónico no será publicado. Los campos requeridos se marcan con un *