收藏      首页

登 陆    |   注 册   
首页 >> 乐志 >> 专题

DeepFakes或将成为人类安全的新威胁

时间:2019/2/3 16:56:01

前言:随着人工智能技术在图像领域中的应用越来越深入,它也越来越有可能遭到恶意利用,成为威胁他人的工具。近日,卡内基国际和平基金会发表了名为《国家如何应对DeepFakes?》的文章,文章指出DeepFakes正在给政府与企业带来破坏性的影响。

人工智能技术的发展正不断刷新着我们对这个世界的认知,2017年以前,深度虚假活动还仅局限于人工智能研究社区内部。但此后,使用DeepFakes技术对视频进行换脸的视频的开始不断涌现,并引起了公众的极大担忧。近日,卡内基国际和平基金会发布文章《国家如何应对DeepFakes?》,文章认为DeepFakes正在给政府与企业带来破坏性的影响。同时,还全面介绍了DeepFakes的基本概念、发展现状、对全球市场与国际事务的影响以及各国的应对实践和应对建议。那么,什么是DeepFakes呢?

什么是DeepFakes?

DeepFakes是一种使用机器学习技术来创建逼真图像和视频的技术。在2017年12月,一位网名为DeepFakes的匿名用户在Reddit论坛上发布了一个假视频,他将《神奇女侠》主角盖尔·加朵(Cal Gadot)的脸嫁接到另一个电影女星的身上,但是看起来几乎毫无破绽。在此之后,DeepFakes便成为了所有看起来像真的一样的假视频的代名词。因此,DeepFakes也可以称为人脸交换技术。

DeepFakes技术将造成哪些负面影响?

但目前,DeepFakes技术由于被用来制作虚假视频而变得臭名远扬,例如有人利用这项技术制作色情内容、伪造政治家的公开演讲等。

事实上,DeepFakes技术除了会损害视频的真实度外,还将有可能被利用制造虚假证据,例如不法分子可以制作出有关于企业负责人行为不当的虚假视频,以此来要挟及敲诈企业。更为严重的是,随着DeepFakes技术生成视频的不断传播,还将导致真实的视频不再被人们相信。两位美国法学教授Robert Chesney和Danielle Citron将这种效应称作骗子的红利:随着公众越来越意识到DeepFakes的危害,他们会对一般的真实视频产生怀疑,也更容易将真实视频视为虚假视频。

DeepFakes人脸交换技术

如何辨别DeepFakes所生成的假视频?

通过DeepFakes所生成的视频并不会存在明显的虚假迹象,因此很难被辨别出来。不过,目前一些专业的媒体人士只能试图通过微小的细节去发现线索,例如视频中的人呼吸、眨眼等生理特征。一般来说,正常人在说话时眨眼的频率会相对较快,这在原始视频中是能够看出来的,但是DeepFakes却不能反应出来,而这些细微的差别对于大众来说是很难被捕捉到的。

既然利用人工智能技术使换脸变得极其容易,那么,反过来是否可以利用人工智能技术快速识别出假视频呢?近日,来自瑞士Idiap研究所的两位科学家,利用人脸识别方法对DeepFakes的换脸效果进行了较为全面的测评,并发表了论文。论文指出,随着换脸技术的不断发展,逼真的DeepFakes视频,将对人脸识别技术构成极大的挑战。经过一系列实验发现,当前已有的先进人脸识别模型和检测方法,在面对DeepFakes时可以说是束手无策的,性能最优的图像分类模型VGG以及基于Facenet的算法,分辨真假视频错误率高达95%。基于唇形的检测方法,也基本检测不出来视频中的人物,其说话和口型是否一致。这意味着越先进的人脸交换技术将越来越难以检测。

怎样利用好DeepFakes技术?

当然,我们不能够完全否定这项技术的价值,还是应该考虑如何更好地利用DeepFakes,发挥它的积极作用。据了解,好莱坞在电影制作时已经使用了该技术。如果好莱坞能够用这一技术制作出非常不错的电影或者视频,那么随着时间的推移,他们对专业视频剪辑师的需求一定会慢慢减少的。此外,美国萎缩侧索硬化症协会(ALS)组建了一家名为Lyrebird的企业,利用类似于DeepFakes技术的声音克隆,来记录患者的声音,以便在未来帮助萎缩侧索硬化症患者进行数字化重建。

写在最后:

未来,生成假视频和检测假视频将成为人类日常生活中的常见博弈,但这不是所有人希望看到的。我们在鼓励研究人员开发精准检测方法的同时,也应该呼吁停止滥用这项技术,不要再制作某些低俗、违法视频。此外,如何更好地与新科技相处,也是值得我们每个人需要思考的问题。

(源自  天极网)

【免责声明】本文系转载文,仅供交流,不代表本网观点,本网不对内容真实性负责,特此声明。如涉及作品内容、版权或其它问题,请在30日内与本网联系撤除或替换相关内容。本文版权及内容解释权归原作者所有。

      登 陆    |   注 册


最新评论