知名男星成“性爱视频”男主,工作室紧急报警,杨幂也牵扯其中(组图)
如果你的脸出现在别人身上,还是一个成人电影中的裸男你会是什么感觉?
相信你一定会感觉到恶心。
就在8月28日,不胜其烦的演员刘昊然报警了。因为他的脸,被网友利用,通过AI换脸技术换到了一个裸男身上。
这些视频在今年1月就被恶意传播,刘昊然工作室发出辟谣和警告后,至今仍有别有用心的网友不断贩售视频和截图。忍无可忍,刘昊然工作室这一次选择了报警。
但事实上,用AI换脸来“搞黄色”这种事情,早就不是什么新鲜事了。
1:AI换脸被用于色情传播,女明星是重灾区
刘昊然被“换脸”造黄谣绝非个例,滥用深度伪造技术的“AI换脸”已经存在多年,催生出的黑灰产屡禁不绝。
顾名思义,AI换脸就是将动态视频中的人脸替换成其他人的人脸,在深度伪造技术的“加持”下,替换上的人脸不再是僵硬的“五毛特效”,表情神态与原视频十分相近,甚至肉眼难以辨别。
2019年,就有B站UP主“换脸哥”用深度伪造技术将杨幂的脸“贴”在了朱茵饰演的黄蓉脸上,流传甚广。
随后,不法分子想出让明星“AI脱衣”的点子,他们把淫秽视频中的人脸换上明星的脸,然后在网络上出售,还有人进行换脸技术教学。
女明星就是“AI脱衣术”的重灾区。
去年9月,有外媒报道,知名女演员艾玛·沃特森的30秒换脸视频在色情网站上播放超过2300万次,还有多位女明星的换脸视频被观看了数百万次,或是被换脸成为数十个色情影片的女主角。
某二手买卖平台上,有卖家亮出了资源,刘亦菲、杨幂、迪丽热巴等人的“AI换脸视频”都有售卖。
只需要几百块,你就能一次打包50部中外女明星的“性爱视频”,看到她们最私密的一面。
2:你和AV女主角的距离,只是150元加上几张照片
别以为这种换脸技术只和女明星有关,卖家们照样能定制素人色情视频。对他们来说,只要付钱,换谁的脸不是换啊?
某二手平台上的卖家,开价一分钟50元,三分钟起,至少150元。
只要有你的照片和视频素材,你的脸就能安在色情视频上。你和AV女主角的距离,也只是几张照片,外加150块钱而已。
在利益的驱使下,换脸技术在给我们带来新奇的同时,也给色情产业带来了春天。
你永远也不知道,自己只是开心地发个自拍,会不会在某一天被有心人拿来换脸、P图。
你的生活,就像一部随时准备拍摄的色情片,只要有人按下“按钮”,你就有可能会成为别人意淫的对象。
3:技术无罪,但要加强监管
AI换脸技术做为一种深度学习算法,简单地说就只是代码和数字,其本身并不涉及违法或是侵犯隐私等问题。
不过许多人却在利用这项技术进行非正常牟利,他们利用这项技术的入门门槛低,大量生产情色换脸视频,进行兜售,更有甚者直接出售软件和教程。
面对这种乱象,也许只有政府层面的监管和约束才能有效遏制AI换脸黑产的持续蔓延。技术的发展总是伴随着各种问题,不急于否定、采优去劣或许才是一种正确的态度。
技术本身没问题,只是不该用在错误的地方。