同盾科技参与制定 “互联网内容审核”人才标准

近日,由中国电子学会组织编制的《互联网内容审核职业技能等级标准》正式对外发布。同盾科技作为国内领先的第三方智能风控与分析决策服务提供商,与中国信息安全测评中心等单位共同参与标准的编写制定。

标准在制定过程中,充分参考《中华人民共和国网络安全法》、《“十三五”国家信息化规划》等法律法规及顶层设计要求,规定了互联网内容审核职业技能等级对应的工作领域、工作任务及技能要求。该标准适用于从事互联网内容审核工作人员职业技能等级的考核与评价,互联网内容审核从业人员的聘用、教育和职业培训可参照使用。

内容审核,又叫内容风险防控或内容安全,近年来越发受到各类电商、直播、媒体等平台的重视,随着大量UGC内容的爆炸式增长,一些违规内容也随之横行,不仅为平台的营销、经营及品牌造成极大伤害,更为严重的是一些违规内容也会涉及棘手的法律问题。

基于此,国内第三方智能风控与分析决策服务提供商,同盾科技打造了内容安全智能平台,其中主要包括图像内容安全服务和文本内容安全服务。据了解,同盾内容安全智能平台基于自然语言处理、语言识别、语义理解、图像分类、目标检测、深度学习等核心技术,面向银行、互金、保险、证券、互联网等客户群体,提供包括文本、图像、音频、视频等泛内容安全识别,全面提升企业智能化、批量化UGC等内容综合处理能力、为用户构建牢不可破的安全防御体系。

目前,同盾科技内容安全产品通过了由中国信息通信研究院牵头组织的内容安全解决方案标准资质认证,成为首批通过认证的三家企业之一,并已服务各行业大量客户。同盾愿意与更多企业携手,为打造一个更加安全、健康的网络环境而努力。

内部员工揭秘:TikTok 竟然这么审核内容

由于增长、合规等诸多因素,内容审核对于任何互联网内容产品来说,都是一件很难但却又逃不过的事情,更别提 TikTok 这样一个由中国公司开发运营、 在全 球都爆 红的短视频平台。

TikTok 在短时间内经受了诸多考验和打击,其中许多都和内容审核有关。

去年大批用户诟病 TikTok 对于未成年用户隐私和使用体验保护不力,甚至放任恋童癖肆虐;今年年初有媒体爆料 TikTok 要求审核员对破墙烂瓦或呲牙咧嘴等“视觉上不美好”的内容进行限制;最近美国平权运动大爆发,又有用户指责 TikTok 屏蔽了游行相关的内容…… 如果 不 改进 ,TikTok 的 全球扩张 将面临 更 多 风险。

躲不过,那就正面上。面对这些质疑,TikTok 决定采用开诚布公的姿态来面对。

今 年三月,它宣布在加州洛杉矶办公室内开设全球第一家面向公众开放的“透明度中心” (Transparency Center),为媒 体及数据隐私、内容审核方面的专家提供导览参观,让公众直接和全面地了解 TikTok 内容审 核情况。不过 由于疫情关系,这座透明度中心的开放计划受到一定程度影响。

近日,硅星人还从字节跳动现任和离职员工处,了解到更多关于 TikTok 透明度中心的运营,以及整个内容审核机制的细节。

标签决定一切

根据知情人士透露的情况,参观者在 TikTok 透明度中心将可以看到内容安全方面的关键流程,也能够亲眼目睹人工内容审核员的工作。

以直播内容为例,每一位内容审核员将会面对一块屏幕,上面会有多条(最多同时9条)内容的截图。

这些出现在审核员屏幕上的内容,其来源有两种:

第一种是机器对直播视频进行图片抽帧分析,分析截图中可能包含高风险内容,然后送到人工的屏幕上,审核员主要基于抽帧的结果进行二次分析;

第二种是来自用户举报以及其它渠道,人工操作也类似。

一位了解 TikTok 内容审核机制的信源透露,在审核员能够看到这些内容之前,机器已经进行了不止一道预先审核。最基础的一道就是分析内容的质量,比如那些纯图片、垃圾内容、竞争对手内容,把这些质量明显最低的内容做“不推荐”处理。结果就是不会被出现在非关注用户的信息流上。

与此同时,机器还会借助预先设计的模型对内容进行更高级的分析。这一步自动化操作主要针对的是明显严重违法的内容,比如儿童色情、宣扬恐怖等。一旦内容被模型验证成功,就不是简单的“不推荐”了,而是会直接下架处理。

进入到人工审核阶段后,审核员的主要工作是查看机器提交的截图或直接查看实时视频内容,打上各种标签。

在较早的1.0版本的 TikTok 审核机制中,主要的标签是“推荐”和“不推荐”;现在 TikTok 的内部内容审核系统已经升级到了2.0版本,标签的多样性显著提升了,除了推不推荐,还有“儿童色情”、“裸露”、“性”、“仇恨言论”、“宣扬暴力”、“宣扬恐怖”等诸如此类的大量新标签。 内容被打上不同的标签, 造 成 的结果不同。

值得提及的是,一旦视频被打上那些较为严重的标签(包括机器自动标记和后续的人工核查/手动标记),将会自动触发标签预先设定好的对应操作。

某些标签关联的操作较轻,结果可能是不推荐;至于儿童色情和宣扬恐怖这类的标签,关联的是下架的操作,结果就是直接下架。

如果在自动处理之后,视频的热度达到特定阈值,还会召回人工再看一遍,确认处理是否合适。

简单来说,就是标签决定一切。

这套新的内容审核机制,显著提高了内容标签的数据价值,帮助 TikTok 更好地掌握平台内容生态的动向。

类似的内容审核思路,以 YouTube 为代表的其它顶级内容平台也在采用和。(事实上,TikTok 的思路就是来自于 YouTube。)

前几周,有美国用户宣称自己在黑人平权运动游行现场的 TikTok 直播内容被平台屏蔽。此后,包括路透社等权威新闻机构已经对其进行了事实核查,发现并非如此。

TikTok 在当时并没有对游行内容进行屏蔽处理。巧就巧在当时平台发生了搜索话题故障,包括 #BLM、#Cat 等在内的许多话题搜索都无法显示视频播放量。

根据多位信源透露的情况,TikTok 目前所有的内容审核功能,全部是逐案进行的,并没有一个针对如此大规模活动实时的、全话题级别屏蔽的操作先例。

规则和审核操作完全本地化

现任员工透露,具体的内容审核原则,会根据审核对象所在地不同的法律、法规、文化和习俗,采用不同的审核尺度。

比如在美国消遣大麻使用已经在少数州合法,全国35个州医用合法,如果有来自这些州用户的 TikTok 视频中出现了对应药品,内容审核就会遵守所在州法律的条文,而其他州用户的类似内容则会被判定为违规。

同理,诸如仇恨言论、平权、宗教等争议话题,TikTok 都会在参考各个国家不同的法律法规文化习俗,制定针对性的内容审核标准。

本周 PingWest品玩英文站的一篇独家报道曾经提到,字节跳动正在中国产品团队和海外产品团队之间建立数据和代码防火墙,这项工作已经进行了一年半之久。

在 TikTok 的内容审核中台团队,也在进行着切割,一些此前供职该团队的中国地区员工被迫内部转岗。

字节跳动现任员工透露,在未来 TikTok 的内容审核工作也会完全本地化, 也即意味着: 美国的审核团队负责美国本土上传和直播的内容,甚至在美国会设立多个透明度中心,多个审核团队,分别审核不同州的内容; 印度团队按照印度法律审核印度内容; 新加坡的团队审核新加坡的内容。

TikTok 的计划是,所有内容审核工作都交由本地的团队执行。一些重要的国家或地区市场,也会逐步开设自己的透明度中心,让当地公众可以一览平台内容审核的全貌。不过目前新中心的开设计划并未启动,毕竟美国第一座中心还未完全落实。

一方面为了实现合规运营,最小化公司面临的海外监管和舆论风险,另一方面也是为了一家现象级中国科技公司史无前例的国际化大计,字节跳动在最近几年内进行了多次大刀阔斧的人力和内部技术改革。

拆分团队、设立防火墙,以及 TikTok 升级内容审核系统,都是这些改革的一部分。

TikTok 还在今年三月宣布成立了一个七名外部专家组成的内容审核委员会,包括法律、技术、民权运动和政策等方面的专家列席。

其中一名委员 Dan Schunur 接受科技媒体 TechNode 采访时曾表示,他对 TikTok 主动接受批评、开展合作、做出改变,而非躲避问题的姿态感到印象深刻。

能阻挡TikTok的,只剩了这一件事

内容审核是字节跳动绕不过去的一座大山。抖音在国内所面临的压力,TikTok在海外也没能幸免。

印度一位TikTok创作者上传了一段向女性泼酸性液体的视频,再次引发对于TikTok的广泛争议。大量印度用户表示将抵制TikTok,并在Google Play商店中对TikTok给了1星级评价,导致TikTok的评分一度从4.5星陡降至1.2星。

TikTok正高歌猛进海外市场,印度正是下载量最大的市场,迄今为止贡献了6.11亿次下载,占TikTok全球总下载量的30.3%。

字节跳动的出海梦想已照进现实,内容问题使TikTok深陷舆论漩涡,提升内容审核的精准度和速度,能为Tiktok的全球化进程减少一些阻力。

绕不开的人工审核

TikTok所面临的内容审核难题,是全球互联网公司共同心病。

亿欧智库研究院院长由天宇表示,在全球范围内,随着内容的数字化程度越来越高,数量越来越庞大,内容类型的复杂度不断增强,需要构建与之相匹配的内容管理机制。

近几年,Google、Facebook、Twitter都显著加强了内容审核的力度,激增的内容包括文字、图片、视频和音乐,审核技术正经受着新一轮的考验。

国内市场内容审核团队已成为大型互联网公司的标配。

以短视频业务为例,2019年1月出台的《网络短视频平台管理规范》显示,网络平台开展短视频服务,应当根据其业务规模,同步建立审核员队伍。审核员数量与上传和播出的短视频条数应当相匹配。原则上,审核员人数应当在本平台每天新增播出短视频条数的千分之一以上。

字节跳动为此早已组建了规模庞大的审核团队,同时也在研发人工智能审核技术。

2018年,字节跳动副总裁张辅评曾表示,字节跳动确保对所有推荐内容进行人工审核,字节跳动审核团队人员已超过1万人,其中大部分从事视频审核。

同一年,字节跳动副总裁、字节跳动人工智能实验室主任马维英透露,抖音一直使用人工智能辅助审核,构成人机交互的闭环:平台上有 600 多个机器学习模型,能够自动理解和识别内容;审核人员同时也是标注人员,用标注好的数据训练模型,再反过来帮助审核。

通过自主研发的AI技术,字节跳动节省超过十万的审核人力,人工审核团队却仍被保留。究其原因,除了管理规范的要求硬性要求外,AI审核的技术瓶颈也是原因之一。

AI审核的技术瓶颈

人工智能的局限性在于,不能对所有的媒介形式进行精准识别。

对于图片和视频来说,人工智能介入审核非常有效,因为计算机视觉识别技术相对成熟。机器通过一定时间的训练,都能够识别出敏感类别的内容,比如裸体、枪支等。

在对语音、文字进行分析时,不能达到识别图片和视频的高准确率。不同的文字在不同的语境下,表达的含义可能有所不同,人工智能很难像人一样思考,理解语言的真正含义。背景音和噪音会对识别造成干扰,在方言识别上,AI也略显吃力。

图普科技创始人兼CEO李明强坦言,内容审核目前最大的障碍是语音,国内市场面临方言识别难题,出海企业要针对当地语言配置小语种识别,技术难度大于方言。

在由天宇看来,语音审核在研发阶段需要投入较高的成本,语音内容的精准识别难度较大,语义的复杂性也带来了诸多挑战。

与人类能够对新事物进行思考不同,深度学习技术只能根据既有的数据进行训练,对新出现的不良内容,人工审核进行甄别,对用户行为进行判断,在此基础上,才能总结经验“传授”给AI。

如果AI审核出现问题,平台也需要承担法律风险。

中国政法大学传播法研究中心副主任朱巍表示,AI审核是基于深度学习的人工智能,其中的程序、算法,实际上体现的是一个平台的价值观和法治观。“不管这个技术是由平台自主研发,还是由第三方提供,一旦出现问题的话,平台肯定要承担责任。”

从安全和成本两个方面来考虑,通过AI审核进行初筛,再将疑似有害内容送达人工审核二次判断,依然是内容平台普遍采用的审核模式。

自研技术并非标配

涉足UGC内容的平台日益增多,用户上传的内容作品质量参差不齐,内容审核方面的需求也随之不断增长。引入AI审核工具成为内容平台的必由之路,至于选择自主研发审核工具,还是与服务商合作,要看平台自身的考量。

亿欧从业内人士了解到,字节跳动并未引入外部内容审核工具,可能是出于数据保护的需要。腾讯、阿里、百度等头部互联网企业在内容审核方面都有所布局,如果选择与外部机构合作,可能有将平台内容和数据泄露给竞争对手的风险。

AI审核工具需要大量数据进行训练,字节跳动旗下拥有多个内容平台,能够建立较为完备的数据库,工具研发后可以高频应用。字节跳动对于内容审核工作十分重视,选择自主研发可能更适合自身发展需求。

哪些企业会选择第三方提供的AI审核服务呢?根据李明强的经验,与头部企业相比,腰部企业更愿意引进内容审核领域的合作伙伴,将资源和精力放在最核心的创新业务上,很少采取自主研发的方式。

AI审核公司相对市场更具审核优势,李明强表示,某一平台不良样本的种类和数量都比较有限,服务商介入能够起到众包和共享的作用。不良内容在一个平台上出现,可以快速被收入数据库中,在服务其他公司时更加便捷、安全。

中娱智库创始人高东旭认可了这一观点,创业型内容平台资金和技术实力有限,只能通过第三方的工具和平台来进行内容监管。目前国内的数美科技、图普科技、百度智能云、金山云和阿里云等,都能提供相关的服务和工具。

平台若想从源头减少内容风险,除了引入第三方机构进行内容审核外,提升团队的把控能力也十分重要。“在内容生产前,可以请行业专家对内容生产者进行培训,在内容创作阶段就能规避一些风险,同时,还应该加强对于法律法规和相关政策的了解。”高东旭说道。

出海平台如何过审核关

内容平台出海,并不是字节跳动独有的战略。

今年5月初,快手在美国发布了应用Zynn,允许用户上传、编辑和分享短视频。据Sensor Tower提供的数据,在Zynn发布的一个月后,就成为了美国下载量最高的iOS应用。

欢聚时代旗下的泛娱乐直播平台BIGO LIVE也在海外取得了不俗成绩。2020年第一季度,欢聚时代的全球平均移动端月活跃用户达到5.2亿,其中77.0%来自海外市场。

作为行业观察者,由天宇站在时间沿革的角度,回顾了互联网企业的出海历程。在互联网领域,中国公司最早的出海产品主要为工具和游戏,认知属性和内容色彩较弱,以B2C模式为主。此后,资讯类产品又成为了出海的热点,内容多以PGC的形式生产,内容审核方面的压力仍不算太大。

国内娱乐平台、社交平台陆续出海,带来了UGC内容的激增,对平台内容审核能力的要求越来越高,十分考验平台内容和当地文化的兼容程度,以及平台运营商的文化理解能力、沟通协调能力和问题解决逻辑。

AI审核技术的第三方服务也跟随平台走向海外市场。“图普针对海外市场研发的图像审核产品,已经在全球多个地区部署了计算节点,其中海外市场应用最广泛的是暴力、色情、未成年识别等审核场景。”李明强说道。

AI审核的技术瓶颈也在出海过程中体现。东南亚、印度、非洲是中国互联网平台出海的主要方向,这些国家和地区都具有语种多样的特点,AI技术则只能在图像、视频审核上沿用国内数据,势必有所局限。

TikTok在印度市场遇阻正是例证。拥有13亿人口的印度拥有巨大的市场空间,对内容提供商的挑战是复杂的语言体系、多样的宗教和文化背景,甚至还有当地尖锐的社会议题。

2019年2月,TikTok就曾因内容问题被印度政府封禁。作为应对,字节跳动在印度沿用了AI技术与审核团队协作的内容审核流程,审核团队可以支持14种语言,并用本地语言做出与文化相关的决定。

字节跳动计划在2019年12月之前将印度分公司员工人数增加到1000人。此外,字节跳动还在印度雇佣了超过250名的专职内容审核员。

越来越多的互联网平台尝试到海外发展,做好前期准备工作,可以避免内容违规后的被动整改。

作为法律从业者,朱巍为出海平台归纳了避免违规的要点。首先是对儿童权益的保护,杜绝儿童色情等内容的出现,否则在各个国家都将面临顶格处罚。

做好用户的个人信息保护也至关重要,在美国、欧盟、新加坡等地,适用的个人信息保护规则可能都不相同,在抓取信息、推荐信息时需要注意当地法规。除此之外,还要遵守当地的文化和风俗。

高东旭则给出了进一步的建议:在出海前,互联网企业必须先行制定适用于海外市场的审核机制,避免平台内容出现问题。“出海平台可以在当地聘请法务人员、熟悉当地文化和宗教的人士,建立配套的审核机制。”

尾声

媒介形式的进一步多样化,正给内容审核带来新的挑战。

新兴的数字娱乐产业是高东旭关注的对象,根据他的观察,AR、VR的技术门槛正在降低,大量应用AR、VR技术的内容也在不断涌现,对于如何进行这一部分内容的监管,仍待企业和相关部门关注和进一步研究。

知识付费催化了语音内容的发展,喜马拉雅FM、荔枝FM、得到等平台的音频内容数量激增,质量参差不齐,针对语音内容的监管力度也在加强。

李明强十分看好内容审核产品的未来:“随着5G和融媒体的发展,平台的内容量将会呈几何级数增长。内容审核技术是一个底层服务,市场需求会持续变大。”

AI又一次打败了人类:仅凭一张自拍照片辨别个人性格

一项新研究表明,人工智能(AI)可在“仅凭一张自拍照片辨别个人性格”这件事上再次打败人类。 与人类相比,机器能够更好地识别一种特征,通过分析人物面孔来确定物种不同的性格特质。 据悉,俄罗斯研究团队开发了一款新 AI,较人类和其它竞争方案更具优势。

计算机视觉神经网络(NNCV)与个性诊断神经网络(NNPD)的层次体系结构。

据悉,这项研究旨在分析目标人物的五种性格特质(外向、神经质、乐于助人、率真、尽责)。研究涉及大约 1.2 万名志愿者和 3.1 万张自拍照,除了提供自拍照,志愿者还被要求填写了个性调查问卷。

结果发现,当分析同一个人的不同自拍照时,AI 会给出一致的个性判断。此外与男性相比,AI 在评估女性自拍照时更加准确。最终,该 AI 的评估准确性“高于平均水准”,且综合表现优于人类志愿者。

研究人员解释称,这种 AI 机器具有许多潜在用途,比如广告行业可借此来挑选更符合产品特质、以及更受消费者欢迎的模特。

有关这项研究的详情,已经发表在近日出版的《科学报告》( Scientific Reports )期刊上。

来源:cnbeta

Facebook内容监管委员会:暂不审核特朗普争议贴文

据外媒报道,作为独立机构的Facebook内容监管委员会周三宣布,将不会审查之前公司拒绝采取行动的总统特朗普发布的争议性贴文。

委员会在一个博客贴文中说,“公共人物发布的可能违反社会规范的贴文在委员会管理范围内,也是委员会在未来几个月正常运转后将考虑的具有挑战性的典型案例。”

在解释不审核特朗普贴文时,监管委员会在博客贴文中表示,特朗普的贴文符合内容审查范围,但是监管委员会还未开始工作,暂时还不能审核任何案例。

博客贴文中继续说到,“我们这个机构不到一个月前才公布第一批成员,今年晚些时候才正式启动,我们还没有资格对今天看到的这些事情做出决定。”

贴文中说,在开始审核案例前,委员会必须先研发案例管理软件工具供成员使用。除此,委员会还将公布另外20名成员,所有成员在委员会正式启动前必须先接受培训。

“委员会开始运转后,我们不会回避棘手问题,也不会考虑Facebook的经济政治利益和声誉问题,”委员会说,“我们在这里不是为了维护Facebook,我们所做的决定都将是透明的,我们也呼吁公司保护自由言论,保护使用者和社会。”

来源:新浪科技

网络平台对AI换脸技术应用的风险控制

近年来,互联网行业发展日新月异,新技术新应用层出不穷,各类人工智能、虚拟现实等新型技术不断应用于各类互联网平台各类服务之中,其中,基于人脸识别、人脸合成等技术手段实现的AI换脸技术应用一直备受关注。AI换脸技术在网络平台应用的一种常见方式为,用户上传含有用户头像的照片,网络平台通过技术处理将用户提交的照片面部信息叠加到用户选择的视频片段(即原始素材)中的人物面部上,从而合成一个体现用户面部信息的新的非真实视频片段。然而,自去年“ZAO”App使用换脸技术引发社会对AI换脸技术的严重信任危机以来,监管部门也出台了相关规定对网络平台及用户基于深度学习、虚拟现实等新技术新应用制作、发布、传播的非真实音视频信息予以规制,基于此,本文将从平台治理角度入手,简要分析为用户提供网络音视频信息服务的网络平台(本文简称为“网络平台”)对AI换脸技术应用的风险控制。

一、AI换脸中的原始素材

要分析网络平台对AI换脸技术应用的风险控制,需要先明确技术应用过程中所使用的原始素材相关权利,主要包括以下几方面。

1、原始素材的著作权

原始素材一般是截取影视剧片段、综艺节目片段等视频作品的内容片段,在网络平台主动提供原始素材库的前提下,网络平台利用AI换脸技术对原始素材的使用包含两个环节:首先,一般会对视频作品进行一定的截取、剪辑、整理,将其加工为短视频并通过网络进行传播,这涉及到了视频作品著作权人的信息网络传播权,如果对视频作品进行编辑、创作后形成的短视频构成了一个新作品,这还涉及到视频作品著作权人的改编权;其次,通过AI换脸技术将原始素材中的原有人物面部改造为用户的面部信息,从著作权的角度,这涉及到视频作品的修改权(即修改或授权他人修改作品的权利)和保护作品完整权(即保护作品不受歪曲、篡改的权利)。故如果网络平台在AI换脸技术应用中未经许可提供原始素材库,会有侵犯著作权的风险。

2、原始素材中的人物权利

原始素材中的人物一般多为参演影视剧、综艺节目等剧集的演员,有种声音认为AI换脸技术对原始素材的应用侵犯了演员的肖像权。法律规定,[1]公民享有肖像权,未经本人同意,不得以营利为目的使用公民的肖像。[2]肖像,是指以某一个人为主体的画像或照片等。通过绘画、摄影、雕刻、录像、电影等艺术手段,在物质载体上再现某一个自然人的相貌特征,就形成肖像。而AI换脸技术的应用是将原始素材中演员面部替换为用户上传的照片面部,在此过程中去除了原始素材演员的相貌特征,故本文认为AI换脸技术对原始素材的应用不构成对演员肖像权的侵犯。

另外,是否侵犯了演员的表演者权呢?根据法律规定,表演者对其表演享有表明表演者身份、保护表演形象不受歪曲这两项人身权利,AI换脸技术的应用中,改变原始素材中演员的面部形象可视为对表演形象的改变,可能会使外界在看到换脸后的新视频时以为是换脸后的人物进行的表演片段,部分观点认为可能或多或少构成了对原始素材中的演员形象的歪曲。但根据影视剧作品的实际运作惯例,演员在参演剧集时一般会保留署名权和获得报酬的权利,而放弃或让渡其他表演者相关的权利至影视剧著作权人(多为制片方),故如网络平台已获得原始素材著作权人的许可使用,且在使用时做好标识使公众对换脸后的新视频不产生非原作品演员表演的误解,本人认为这种情况下获得表演者的许可不应作为必备条件。

最后,如用户恶意上传不雅、恶意照片对演员进行换脸,也可能涉及侵犯演员名誉权的风险。

二、网络平台的风险控制

1、内容合规控制

如前述对原始素材的分析,如果网络平台在AI换脸技术应用中主动提供原始素材库,必须事先获得视频作品著作权人的许可,以避免侵权风险。同时,如果原始素材是由用户自行上传,一般而言用户并未获得视频作品著作权人的许可,此情况下网络平台一般需要遵从“通知—删除“规则,收到权利人的侵权投诉通知后应立即删除涉嫌侵权的素材,则平台无需承担赔偿责任。但需要注意,在用户自行上传的情形下,网络平台如果主动对相关素材进行推荐、纳入模板库等行为,则一般会被认为突破了“避风港”原则,需要和侵权方承担共同侵权责任。

网络平台需要避免用户利用此换脸功能发布违反法律法规规定的内容(如淫秽、暴力、反动等违法内容),尤其是用户利用平台的换脸功能发布含有他人头像的前述内容,会对他人的名誉造成严重影响,故网络平台在对换脸内容的审核方面应从严、从紧,做好事先审核、事中巡查,综合利用机器和人工多重内容识别、筛查手段,降低平台违法侵权风险。

2、用户的行为约束

在AI换脸技术中,存在用户冒用他人照片发布换脸视频而侵犯他人肖像权的隐患,尤其是如果用户随意上明星照片去合成换脸视频,引发侵犯明星的肖像、名誉等情形极易给网络平台带来侵权法律风险甚至是舆论危机。故在用户上传照片时,网络平台可通过技术手段对用户进行人脸信息对比验证以确保用户上传的是其本人照片,降低侵犯他人肖像权的风险。

同时,为防止用户利用换脸视频进行商业性行为或者其他不当行为,一般来说换脸视频仅供用户在网络平台内娱乐使用或者按照网络平台的要求的范围和条件进行转发互动,故一方面网络平台在其相关用户协议或活动规则中应要求用户不得将合成后的换脸视频用于任何商业目的或任何营利性活动,另一方面考虑从平台功能上进行限制操作的设置,使用户客观上无法将使用网络平台相关功能发布的换脸视频下载到本地。

3、新生成视频的标识

国家互联网信息办公室、文化和旅游部、国家广播电视总局于2019年11月18日联合印发了《网络音视频信息服务管理规定》(自2020年1月1日起施行),其中规定,[3]网络音视频信息服务提供者和使用者利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播的非真实音视频信息的,应当以显著方式予以标识。故网络平台在应用AI换脸技术时,须在用户协议中,要求用户在利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播非真实音视频信息时需作出标识,内容审核或巡查中发现用户传输此类信息未打标的,须及时予以处置。同时,也可以尝试在产品功能设置上留给用户可用的打标功能,或者在主动提供素材库的情况下可实现换脸后视频自带水印、角标等功能,以更好的防控此类风险。

4、个人信息保护

去年“ZAO”App爆发危机时被大众最为诟病的一个问题是其涉嫌侵犯用户隐私,使用户的头像和面部信息有被泄露的安全隐患,根据“ZAO”App当初的用户协议,用户一旦使用换脸功能上传其照片,”ZAO”App不仅可以免费使用用户的肖像,还有权将用户的肖像进行转授权、再许可甚至是进行改动,在众多金融支付工具已采取人脸识别等生物识别技术的当今社会,这样的“霸王条款“给公众带来的不仅是疑惑,更有恐慌。从用户隐私及个人信息安全的角度,用户的面部信息和特征是极其核心的敏感信息,[4]网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。

网络平台中的AI换脸技术应用,多是为用户提供一个娱乐、互动的游戏或活动,遵从个人信息保护的原则,网络平台在收集使用用户的人脸信息时,必须仅将其应用于本次使用场景,在用户完成换脸视频合成后,网络平台就应从服务器中删除用户上传的照片信息及其人脸识别过程中所扫描的面部生物识别特征信息,不再保存,也不得再将前述信息用于其他任何用途,更不得转授权或与其他任何第三方共享用户的前述信息。

此外,从用户个人信息的收集方式而言,一般常见的方式为将前述关于用户个人信息的收集、使用、存储等事项详细、明确的展示在平台的用户协议、隐私政策或具体的活动规则文本当中,不得在相关文本中违反法律法规规定超范围使用用户的敏感信息,并做好文本的确认及公示流程,确保用户在使用AI换脸功能时明确知悉相关隐私问题,做到心中有数,安心娱乐。