近日,韩国曝出“Deepfake”(深度伪造技术)事件,被认为是采用新犯罪手段的“N号房”案件重现。Deepfakes是使用人工智能生成的技术,将个人的声音、面部表情及身体动作拼接合成虚假内容。韩国网民在通讯软件“电报”(Telegram)上发现大量聊天群,其中有成员创建和分享露骨的性“深度伪造”图像,对象涉及未成年女孩。
据外媒报道,在付费deepfake电报频道,男性订阅用户提供女性照片,交钱后由频道制作成色情图片。曾曝光“N号房”事件的前共同民主党紧急对策委员会共同委员长朴智贤表示,目前全国涉及深度伪造犯罪的人数可能达到22万(包含可能重复的情况),众多女性因此陷入不安和恐惧之中。因为针对年轻女性的深度伪造色情内容泛滥,韩国总统敦促当局采取更多措施来“根除”该国的数字性犯罪流行问题。
性剥削材料的受害者通常是未成年人
据韩媒报道,针对女性的深度伪造犯罪在韩国日趋猖獗。几日前,有多名韩国女性通过社交媒体发声,称她们在一些社交媒体上,特别是“电报”(Telegram)群组中,发现又一个“N号房”案件,韩国男性疑似大量分享传播周围女性的淫秽影像。
群组中传播的淫秽影像经深度伪造换脸而制成。在付费的deepfake电报频道中,男性订阅用户提供女性照片,交钱后由频道通过深度伪造技术制成色情传播材料。
某些群组甚至要求参与者进行现役军人身份验证,并通过向受害者发送伪造照片,以及分享受害者的反应,来换取群组的入场资格。涉及的群组参与人数不等,少的几百上千人,多的超过十万人。