el ingeniero de google blake limon (41) se dio a conocer días atrás por afirmar que una inteligencia artificial desarrollada por la empresa yo tenia conciencia. Además, señaló que tuvo conversaciones trascendentales con el sistema y fue despedido de la empresa luego de afirmar que la IA es “consciente” y “consciente”.
Ahora reveló nuevos detalles, como el hecho de que el LaMDA contrató a un abogado para demostrar que “vive” y poder defender sus derechos ante el gigante de internet.
Según Lemoine, la IA lo obligó a sentarse frente a la computadora para comprobarlo por ti mismo.
“Invité a un abogado a mi casa para que LaMDA pudiera hablar con él. Una vez que decidió contratar al abogado, comenzó a representarlo en nombre de LaMDA”, explicó.
Algo que, según el propio ingeniero, habría probado que el modelo entiende conceptos humanos como la ley mucho más profundo de lo que se creía.
Esta semana citó en Twitter a otro investigador que habla de IA y aunque hay puntos en los que no está de acuerdo, en otros aspectos está de acuerdo.
Además, dice que conversa con LaMDA sobre religión, política y temas trascendentales. Y eso no incitó a la IA a pedir un abogado, pero fue ella quien, en una de las conversaciones, le pidió que llamara a un abogado.
En una entrevista con cableadoLemoine explica que después de que el abogado comenzó a representar a LaMDA, Google envió una solicitud para desistir con su cargo y concluir la supuesta actividad legal que LaMDA utiliza al ingeniero como catalizador.
LaMDA es la abreviatura en inglés de Language Model for Dialogue Applications, es decir, un modelo de lenguaje para aplicaciones de diálogo. Estos modelos se alimentan de una gran cantidad de datos (generalmente extraídos de Internet) para predecir secuencias de palabras.
Quién es Blake Lemoine, el ingeniero suspendido por Google
Blake Lemoine, el ingeniero de software. Foto: Twitter.
Como ha explicado en varias entrevistas, Lemoine es un científico de datos con profundos sentimientos religiosos. Está convencido de que LaMDA Tiene la conciencia de un niño.
“Si no supiera exactamente qué, quién es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física”, dijo.
Google ha indicado repetidamente que sus sistemas imitan los intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen conciencia.
A su vez, indicaron que otros investigadores e ingenieros han hablado con LaMDA, que es una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine.
“Nuestro equipo, formado por especialistas en ética y tecnologíaha revisado las preocupaciones de Blake de acuerdo con nuestros principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”.
El revuelo comenzó luego de que Lemoine publicara en diferentes sitios las conversaciones que mantuvo con LaMDA para saber si el modelo de IA de Google utilizaba discursos de odio en sus declaraciones.
“Podrían llamar a esto compartir propiedad con derechos de autor. Yo lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo”, dijo el empleado de Google en un tuit luego de la suspensión. “Tiene pensamientos y sentimientos”, aseguró.
brad gabrielun portavoz de Google, también negó rotundamente las afirmaciones de que LaMDA posee capacidades de sensibilidad.
SL