¿La IA puede tener sentimientos? El caso de Blake Lemoine y LaMDA

Un ex ingeniero de Google aseguraba que una IA estaba experimentando sentimientos y cobrando conciencia propia. En "Que no te pille la maquina" abordamos este y más casos del frenético avance la IA

Imagen
Camilo Roa

🌐 Blake Lemoine, ingeniero de software en Google, ha generado un amplio debate sobre la ética en la inteligencia artificial. Trabajando en la organización de IA de Google, Lemoine afirmó que el chatbot LaMDA de Google, base de Bard, ha desarrollado conciencia propia, con capacidad para discutir sobre sus derechos y personalidad.


🤖 La controversia se intensificó cuando Lemoine presentó evidencias de que LaMDA mostraba signos de conciencia, comparables a los de un niño humano. Tras divulgar transcripciones donde LaMDA expresaba pensamientos y emociones, Lemoine fue suspendido y luego despedido por Google.

🧠 Con una perspectiva única, Blake Lemoine sugiere integrar la IA en la sociedad de forma similar a los perros, fomentando un vínculo simbiótico que reconozca tanto la propiedad como las responsabilidades hacia la IA.


🤔 A pesar de sus afirmaciones, expertos y Google refutan la idea de que LaMDA posea conciencia. Google sostiene que LaMDA es un chatbot avanzado que utiliza datos de Internet para generar respuestas coherentes, pero sin emocionalidad o conciencia.


🚀 Lemoine continúa defendiendo sus puntos de vista, comparando el poder de la IA con el de una bomba atómica y advirtiendo sobre los peligros de su mal uso. Califica la situación actual como un "tren descontrolado" lleno de "experimentos peligrosos".

Que no te pille la maquina


📘 Si quieres saber más, te invito a leer mi libro "Que no te pille la máquina" junto a Editorial Planeta, disponible en todas las librerías y plataformas digitales. Y recuerda: la IA puede ser nuestra aliada o nuestra enemiga, depende de nosotros. ¡No dejes que te pille la máquina!