一张伪造裸照048美元九游娱乐“AI换脸”性犯罪背后的黑灰产业链

公司资讯 小编 发布时间:2024-09-04 浏览:

  九游娱乐近日,韩国“N号房事件”卷土重来,韩国女性集体陷入“AI色情换脸恐慌”!

  多位韩国女性称,她们接到陌生人的骚扰电话,才知道自己的姓名、电话、住址已经被传遍多个聊天室。

  更可怕的是,她们的照片也被加害人通过Deepfake(深度伪造)进行AI换脸,生成了裸照或淫秽视频在Telegram平台进行传播。

  据《韩民族日报》报道,目前参与人数高达22.7万!什么概念?韩国过去一年新生儿人数才23万人。

一张伪造裸照048美元九游娱乐“AI换脸”性犯罪背后的黑灰产业链(图1)

  有网友自发建立了一个“受害者学校地图”的网站,用于受害者以及身边有受害者的网友进行登记使用。

  短短两天时间,就有超过500所学校在网站上被标记,超过300万人次登录查询自己是否已经成为了受害者。

  “N号房”事件因DeepFake再度上演,导致韩国女性集体陷入“AI换脸”的恐慌与愤怒的情绪当中。

  而反观加害者的态度,则只是暂时关闭了Telegram,并公然表示“等安静下来会重新开放房间......”

  该报道称,首尔大学两名毕业生从2021年7月至2024年4月,涉嫌利用DeepFake技术换脸合成色情照片和视频,并在“Telegram”上进行传播,受害女性多达61人,包括12名首尔大学学生。

  在一个国家的最高等学府,学生正在通过科技手段加害自己的朋友、亲人和同学?

  一位韩国网友发帖称发现了一个聊天室,里面聚集上千人,分享自己妈妈、姐姐、妹妹的暴露照片,群里的发言恶劣至极。

  于是,韩国警方对其展开调查,结果发现DeepFake(深度伪造)犯罪和当年的“N号房事件”一样。

  在一个拥有1300多名参与者的聊天室里,有来自韩国几十所大学的众多小型个人聊天室。

  经过韩国警方的调查,“深度伪造”犯罪和“N号房事件”一样,将特定职业女性性对象化,女兵、女教师、女护士都成为了非法合成色情图频的目标。

  在平台上,不仅有“女教师房”、“护士房”、“女兵”等群组,还有以家人为对象的近亲房”、“家庭房”。

  DeepFake“深度伪造”,简单来说就是“AI换脸”技术,包括语音模拟、人脸合成、视频生成等。

  这项技术的出现使得篡改和生成效果逼真,可以达到以假乱线秒生成一张合成裸照

  该频道设有图像机器人,能够将上传的女性照片转换为深度伪造的裸照。不仅如此,它甚至允许用户自定义生成图像中的各个身体部位。

  尽管有报道称,韩国警方已经对深度伪造犯罪展开调查,但该频道的推广帖子仍时而出现在大众视野。

  专家们表示,该频道的存在是深度伪造色情内容的现实缩影。而且很多人只是“觉得有趣”,他们似乎并没有意识到,自己这样的行为已经涉及犯罪。

  “像这样在Telegram聊天室中制作性剥削及深度伪造类型的图像,并进行传播,是当前诱发大规模性犯罪的根源所在。”

  “AI换脸”性犯罪并不是个例,很多大家熟知的名人、明星,都曾是DeepFake的受害者。

  人工智能技术正在以前所未有的速度重塑世界。同时,科学技术的滥用也引发了一系列的舆论风暴。

  DeepFake技术,基于深度学习算法,通过训练大量的面部图像工具,创造出几乎可以以假乱真的照片和视频。如果将其应用到影视制作,可以实现逼真的特效。

  特朗普想让马斯克审计美国政府帐薄?马斯克:迫不及待!政府中有很多浪费和不必要的监管需要取消

  放弃LCD!苹果iPhone将统一配OLED屏:日企夏普、JDI被踢出果链

  随着FineWoven库存减少 苹果可能正在为iPhone保护壳开发一种新材料

  Pixel 9a将内置Tensor G4处理器 但会使用较差的封装技术和较旧的基带

  「古铜色」iPhone 16 Pro 最新电商视频,14 秒内暗示相机再升级

在线咨询

点击这里给我发消息QQ客服

在线咨询

免费通话

24h咨询:025-52253067


如您有问题,可以咨询我们的24H咨询电话!

免费通话

微信扫一扫

微信联系
返回顶部