明年1月1日起,AI造假视频不得随意发布

问耕 发自 凹非寺
量子位 出品 | 公众号 QbitAI

新规来了。

明年1月1日起,AI造假视频不得随意发布

在这份刚刚印发的《网络音视频信息服务管理规定》中,四次直接提及深度学习,基本可以看做是针对AI造假视频的一次针对性管控。

2017年底,deepfake换脸技术出现以来,各种使用AI技术造假的视频层出不穷。而且随着技术的进步,造假视频已经变得越来越真假难辨,也引发了全球范围内的担忧。

现在,不能使用AI技术乱来了。

国内的各位朋友,再搞AI换脸的视频等操作,请注意这些新规定。

对普通用户:

  • 发布非真实AI音视频时,要以显著方式标识出来。
  • 不得使用AI技术制作假新闻。

对于服务商,除了上述要求还有:

  • 上线AI音视频服务,应展开安全评估。
  • 部署非真实音视频鉴别技术。
  • 及时停止传播未显著标识的非真实AI音视频内容。
  • 建立健全辟谣机制。

相关规定条款,我们截图如下。

明年1月1日起,AI造假视频不得随意发布

新规定将于明年1月1日起施行。

《网络音视频信息服务管理规定》的详细内容,可以访问这个页面查看:http://www.cac.gov.cn/2019-11/29/c_1576561820967678.htm

明年1月1日起,AI造假视频不得随意发布

deepfake“改变”世界

对于deepfake等基于深度学习的AI技术,全球都在想办法应对。

毕竟这种技术,可以用来换脸:

明年1月1日起,AI造假视频不得随意发布

还能用来给身体造假:

明年1月1日起,AI造假视频不得随意发布

本月,推特发布了首个反deepfake策略草案,并征集公众意见。根据这个草案,如果一份deepfake伪造的内容威胁到某人的人身安全或可能造成严重伤害,将会被删除。

包括微软、Google等国外公司也在研究如何自动鉴别换脸视频。

AI造假视频,也是最近几个月美国国会中最有争议的话题之一。此前,美国国际战略研究中心(CSIS)发布报告称,伪造信息正在通过互联网迅速传播,破坏了民主进程。

来自人民看点的报道中写道:

Deepfake被认为是一种破坏民主的工具。美国情报界发布的2019年全球威胁评估(Worldwide Threat Assessment)中就警告称,恶意攻击者或战略竞争对手可能会使用deepfake技术或类似的机器学习技术来创建看似逼真但其实是伪造的图片、音频和视频文件来加大针对美国和其盟友的活动的影响。

CNBC网站在其报道中称,“deepfake”将成为“2020年美国总统选举中的大事件”。就像2016年的“虚假新闻”一样,“deepfake”视频将在2020年的美国大选中,掀起更强大的血雨腥风。

明年1月1日起,AI造假视频不得随意发布

2019年10月,美国加州州长Gavin Newsom签署AB-730法令,明确指出,如果散布伪造的信息使公众对政治人物的言论、行动产生错误或有害的印象,将是犯罪行为。

7月,美国弗吉尼亚州也发布了禁止deepfake滥用的禁令:未经当事人允许分享他人的裸露视频、照片属于违法行为,无论该照片或视频是真实的还是伪造的。

今年6月,斯坦福、普林斯顿等大学发布了一项最新研究:给定任意文本,就能随意改变一段视频里人物说的话。并且,改动关键词后人物口型还能对得奇准无比,丝毫看不出篡改的痕迹。

明年1月1日起,AI造假视频不得随意发布

除了视频造假,AI在音频造假方面也不在话下。

来看一个真实的案例。

有人用AI技术伪造老板的声音,打电话要求转账,结果一家公司上当了,损失了173万元。这家公司,是总部位于英国的一家能源公司。

要不是因为骗了一次还想立刻骗第二次,这个骗局可能也不会马上曝光。

毫无破绽的变脸

如果你还没见识过deepfake的威力,以下是一些网友的大作。

此前,有一个名为“换脸哥”的B站用户将《射雕英雄传》中朱茵饰演的黄蓉换成了杨幂的脸,并且把处理过的视频发在了B站。

明年1月1日起,AI造假视频不得随意发布
明年1月1日起,AI造假视频不得随意发布

类似的还有,徐锦江换脸海王。

明年1月1日起,AI造假视频不得随意发布

把《回家的诱惑》里男主的脸换到了“穿着品如衣服”的女性角色艾莉脸上:

明年1月1日起,AI造假视频不得随意发布

更多例子就先不举了。

如果你想试试AI模仿声音的感觉,可以试试搜狗输入法里的“变声”功能。

如果你想试试AI换脸的感觉,可以试试此前曾在国内外掀起一阵旋风、继而引发广泛争议的App:ZAO。

One More Thing

北京下雪了,今天一早,量子位有个小姐姐跑去故宫看雪景。

这张是她发回的现场报道:

明年1月1日起,AI造假视频不得随意发布

祝大家周末快乐~

— 完 —

版权所有,未经授权不得以任何形式转载及使用,违者必究。