Google no cumplió su promesa: Ahora su IA podrá usarse en armas y vigilancia

Google abandona un principio ético clave, desatando preocupaciones sobre el uso de IA en conflictos automatizados sin control humano, lo que podría transformar el futuro de la guerra y la vigilancia.

José Aravena

Alphabet, la empresa matriz de Google, ha eliminado de sus directrices éticas la prohibición de utilizar inteligencia artificial (IA) en el desarrollo de armas y herramientas de vigilancia. Este cambio se anunció poco antes de que la compañía revelara ingresos por debajo de las expectativas, lo que impactó negativamente en sus acciones. Hasta ahora, la política de la empresa incluía la promesa de no desarrollar tecnologías que pudieran “causar o pudieran causar daño general”, pero esta restricción ya no aparece en las nuevas pautas.


Proyecto Astra, la nueva IA de Google con "habilidades humanas": Puede ver, oír, recordar, asimilar y hablar

La nueva herramienta del gigante tecnológico ha sorprendido por sus avanzadas capacidades de razonamiento en interacciones complejas.

2024-05-15 09:05:25


🔄 Demis Hassabis, director de inteligencia artificial de Google, defendió la actualización de las directrices argumentando que la IA debe proteger la “seguridad nacional”. En una publicación en el blog oficial de la compañía, Hassabis y James Manyika, vicepresidente senior de tecnología y sociedad, justificaron la decisión afirmando que “las democracias deberían liderar el desarrollo de IA” bajo valores como la libertad, la igualdad y el respeto por los derechos humanos. “Creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional”, añadieron.


📉 La noticia tuvo un impacto inmediato en el mercado. Alphabet reportó ingresos de 96.500 millones de dólares, apenas por debajo de los 96.670 millones esperados por los analistas. Sin embargo, el crecimiento más lento en su negocio de la nube generó preocupaciones entre los inversores, lo que llevó a una caída del 8% en sus acciones al inicio de la jornada en Wall Street.


⚠️ La actualización de la política de IA de Google llega en un contexto de creciente debate sobre el uso militar de esta tecnología. Expertos como el científico informático británico Stuart Russell han advertido sobre los riesgos de los sistemas de armas autónomos, abogando por un control global para evitar que la IA sea utilizada en conflictos bélicos sin supervisión humana.


La Doomsday Clock, un indicador simbólico de lo cerca que está la humanidad de su propia destrucción, mencionó recientemente el riesgo del uso militar de la IA como una de las principales amenazas globales. En su último informe, advirtió que “sistemas que incorporan inteligencia artificial en el ámbito militar han sido utilizados en Ucrania y Medio Oriente, y varios países están integrando la IA en sus ejércitos”. La organización se cuestionó “hasta qué punto se permitirá que las máquinas tomen decisiones militares, incluso aquellas que podrían causar muertes a gran escala”.


🌍 En su blog, Google argumentó que sus principios de IA necesitaban una actualización debido a la rápida evolución de la tecnología desde 2018. “Miles de millones de personas utilizan la IA en su vida cotidiana. Ha pasado de ser un tema de investigación de nicho en el laboratorio a una tecnología tan omnipresente como los teléfonos móviles e Internet”, escribieron Hassabis y Manyika. Según la compañía, la IA ya no es solo una herramienta de investigación, sino una plataforma fundamental para el desarrollo de nuevas aplicaciones en todo el mundo.


📜 Cabe recodar que la compañía modificó su histórico lema “Don’t be evil” (No seas malvado), que fue parte de su identidad desde sus inicios. Este lema fue degradado a un “mantra” en 2009 y eliminado del código ético de Alphabet en 2015, cuando la empresa matriz de Google fue creada. Desde entonces, la compañía ha enfrentado críticas por su enfoque en la ética de la IA y la toma de decisiones empresariales relacionadas con la seguridad y la privacidad.


🛡️ Alphabet planea invertir 75.000 millones de dólares el próximo año en gastos de capital, principalmente para mejorar sus capacidades e infraestructura de IA. A pesar de las críticas y preocupaciones sobre su nuevo enfoque, la compañía sigue apostando por consolidar su liderazgo en el desarrollo de inteligencia artificial.