Crean software que "envenena" y confunde a las IA para resguardar los derechos de autor

Nightshade es una propuesta de la Universidad de Chicago que vela por la creatividad y el desarrollo humano en plena era de la inteligencia artificial.

1024_2000
Copano.News

🤖 Desde el auge de la inteligencia artificial en 2022 hemos conocido una gran cantidad de herramientas que facilitan nuestro trabajo.


🎨 Generadores de imágenes, bots conversacionales, editores de vídeo con IA, entre otros, son solo algunos ejemplos.


🚫 Sin embargo, estos modelos de lenguaje se han entrenado con imágenes y obras creadas por artistas, protegidas por derechos de autor, sin darles el crédito correspondiente.


🤔 Este hecho ha generado un debate ético sobre el uso indebido de la IA.

🔍 Ante este problema, investigadores de la Universidad de Chicago han desarrollado un software open-source capaz de “envenenar” las imágenes para que no puedan ser utilizadas en el entrenamiento de una IA.


🌌 Este software, llamado Nightshade, altera los píxeles de las imágenes de manera imperceptible para el ojo humano, impidiendo que la imagen sea útil para un modelo de lenguaje.


🛡 Nightshade será una opción incluida en la herramienta Glaze, la cual ya impedía que las imágenes fueran entrenadas mediante un algoritmo que modificaba pequeños detalles de las imágenes imperceptibles.


🤖 La diferencia es que Nightshade también confunde a la IA, haciendo que los algoritmos de machine learning aprendan los nombres incorrectos de los elementos y escenarios que aparecen en las imágenes.

🐶 Por ejemplo, si se utiliza Nightshade en una imagen en la que aparece un perro, la herramienta hará creer al modelo de lenguaje que en ella aparece un gato.


📊 "Tras 100 imágenes modificadas, la IA empezó a generar perfectos gatos cuando se le indicaba generar a un perro", explican los investigadores.


🧪 Los investigadores realizaron pruebas con Stable Diffusion, demostrando que su software puede confundir incluso modelos muy elaborados, detallan en Venture Beat.


🐱 Además, gracias a la naturaleza de la IA generativa, Nightshade también consigue hacer que los modelos generen gatos cuando se les pregunta por las palabras “husky”, “cachorro” o “lobo”.

🛡 Este procedimiento puede ser muy difícil de evitar por los modelos de lenguaje, ya que las imágenes han sido modificadas previamente a la subida, siendo además una técnica imperceptible para el ojo humano y complejo de detectar incluso para un software de extracción de datos.


Si bien los investigadores son conscientes de que esta herramienta también puede ser usada de manera indebida, esperan que “la balanza se equilibre” hacia los artistas mediante la creación de una herramienta contra “la falta de respeto a los derechos de autor y la propiedad intelectual de los artistas,” según el artículo del MIT Tech Review.