Corea del Sur declara emergencia por aumento de pornografía deepfake

El presidente Yoon Suk-yeol ordenó intensificar los esfuerzos para erradicar estos delitos, que afectan a cientos de víctimas, incluidas menores de edad, y son perpetrados bajo el anonimato.

Imagen
Fabian

🛑 En medio del auge de la inteligencia artificial (IA), Corea del Sur enfrenta una emergencia por el aumento de la pornografía deepfake, un delito que implica la creación y manipulación de imágenes y videos mediante IA, suplantando el rostro de personas. El presidente surcoreano, Yoon Suk-yeol, ha ordenado a las autoridades que intensifiquen sus esfuerzos para "erradicar" estos delitos sexuales digitales.


📱 Las declaraciones de Yoon surgieron tras el descubrimiento de una red en Telegram dedicada a la creación y distribución de contenido pornográfico deepfake, afectando a cientos de víctimas, incluidas menores de edad. "La mayoría de los perpetradores también han sido identificados como menores", agregó el presidente, subrayando que estos actos son "delitos claros que explotan la tecnología bajo el escudo del anonimato" y que "cualquiera puede ser una víctima", según detalló BBC.


Reacciones y medidas en Corea del Sur


🚨 El Consejo Coreano de Radiodifusión y Comunicaciones (KCSC) convocó una reunión de emergencia ante el alarmante aumento de estos videos. Estas medidas se suman a la detención en Francia del fundador de Telegram, Pavel Durov, en el marco de una investigación del organismo de Combate contra el Cibercrimen de Francia, relacionada con una serie de delitos cometidos a través de la aplicación de chat.