La IA de stickers de WhatsApp está añadiendo armas a las sugerencias para niños palestinos
La inteligencia artificial de WhatsApp genera imágenes preocupantes en respuesta a ciertas palabras clave.

En WhatsApp de Meta, los usuarios pueden generar stickers usando sugerencias de IA.
Sin embargo, el modelo de IA utilizado para crear esos stickers a veces genera imágenes de niños sosteniendo armas cuando se le sugiere Palestina y palabras similares.
En cambio, las sugerencias de Israel no resultaron en ninguna imagen de este tipo.
Hace un mes, el generador de stickers de IA de Meta comenzó a implementarse con la tendencia a crear imágenes violentas o groseras de manera inapropiada, incluyendo niños soldados.
Una fuente anónima dijo a The Verge que algunos de los trabajadores de la compañía habían señalado y escalado el problema con las sugerencias relacionadas con la guerra en Israel.
El portavoz de Meta, Kevin McAlister, le dijo a The Verge por correo electrónico que la compañía está abordando el problema, añadiendo que Meta "continuará mejorando estas características a medida que evolucionan y más personas compartan sus comentarios".
Meta ha tenido otros problemas con sesgos en sus modelos de IA, como la función de auto-traducción de Instagram que inserta la palabra 'terrorista' en las biografías de los usuarios escritas en árabe, haciendo eco de una mala traducción de Facebook que llevó a la detención de un hombre palestino en Israel en 2017.