建立网络文学内容审核机制,实行创作者实名注册制度

近日,国家新闻出版署印发《关于进一步加强网络文学出版管理的通知》,要求规范网络文学行业秩序,加强网络文学出版管理,引导网络文学出版单位始终坚持正确出版导向,坚持把社会效益放在首位,坚持高质量发展,努力以精品奉献人民,推动网络文学繁荣健康发展。

资料图 新华社供图

通知要求,网络文学出版单位要严格落实平台主体责任,建立健全网络文学内容审核机制,强化内容把关职责,支持优质创新内容,控制总量、优化结构、提高质量,确保内容导向正确、格调健康向上,坚决抵制模式化、同质化倾向;严格规范登载发布行为,实行网络文学创作者实名注册制度,在平台上明示登载规则和服务约定,对创作者登载发布行为提出明确要求;加强对作品排行榜、互动评论等作品相关发布信息的动态管理,正确引导用户阅读。

通知要求,各级出版主管部门要组织开展网络文学出版单位社会效益评价考核,对考核结果优秀的单位予以奖励和支持,对考核结果不合格的进行批评和处罚;加强评奖推选活动管理,举办全国性网络文学评奖须向国家新闻出版署提出申请;进一步规范市场秩序,对内容导向出现偏差的作品和单位,综合运用多种措施进行处置;加强网络文学出版队伍建设,引导广大网络文学从业人员对读者负责、对社会负责,恪守公序良俗,弘扬新风正气,打造精品力作,维护网络文学行业良好声誉和网络文学出版工作者良好形象。

通知强调,各级出版主管部门要严格落实意识形态工作责任制,切实履行属地管理职责,加强对属地网络文学业务的管理,建立和充实网络文学阅评队伍,提高科学管理效能,确保各项管理责任落到实处。

延伸阅读

唐家三少谈中国网络文学海外走红

5月27日,全国政协委员张威(唐家三少)在谈到网络文学创作时表示,网络文学的故事性使它能够传播开来,故事是世界性的,把文化潜藏在故事中,是中国文化走出去的一个好办法,网络文学要做有世界影响力的中国IP。

据@人民日报 官方微博27日报道,唐家三少在接受采访时表示,中国的网络文学经过20多年的发展,能发展到现在有接近5亿读者,绝不是靠一些良莠不齐的东西,而是以在符合法律法规的范围内弘扬真善美为大前提,创作的广大人民群众喜闻乐见的作品,这些作品的调性是年轻、积极、健康、向上、绿色、热血。

他认为,中国网络文学在国外传播得很好,优势是靠故事取胜,故事是世界性的,把文化潜藏在故事中,是中国文化走出去的一个好办法,“他们能看得懂,也会逐渐感兴趣,我们要做有世界影响力的中国IP。”

对于此前备受争议的网络文学作者与平台之间的版权问题,他表示,任何一个作者都更愿意将自己全部精力用于创作,而不是因为版权,或者这样那样的问题纠结,影响自己的心态和创作,最理想的状态就是作家创作,平台帮作家把内容运营好,做他们的投资人和经纪人,从中获得一定利益,共生共赢才是长久之计。

人民日报海外版:直播不能什么都播

目前,网络直播行业蓬勃发展。《中国互联网络发展状况统计报告》显示,中国网络直播用户规模已达5.6亿,占网民整体的62%。然而,在行业竞争和利益驱动下,一些直播平台乱象丛生。

防疫期间,全国大多数网民上网时长明显增多,有的直播平台利用这一时机,为追流量、抓眼球,任由主播穿着暴露、言语粗俗、行为恶劣,通过“送福利”、低俗表演等方式吸引用户进行高额打赏,甚至诱导未成年人进行充值打赏,所涉及的举报案例居高不下;有的直播平台主播向网民兜售三无产品、假冒伪劣商品等,严重侵犯消费者合法权益,扰乱正常网络购物市场秩序……网络直播平台的这些违法违规行为,严重破坏网络生态,对青少年的健康成长带来恶劣影响,必须坚决予以治理。

近日,国家网信办等8部门启动为期半年的网络直播行业专项整治和规范管理行动,剑指行业乱象,传递出鲜明导向——互联网不是法外之地,虚拟空间不是虚假空间,以严格监管促行业健康发展势在必行。尤其引人关注的是,此次相关部门将探索实施网络直播分级分类规范以及网络直播打赏、网络直播带货管理规则。这意味着红火的“直播经济”快车有了重要的“刹车”管控。

“名品”变赝品、“好货”变“水货”……中国消费者协会日前发布的《直播电商购物消费者满意度在线调查报告》指出,近40%的受访消费者称在直播购物中遇到过消费问题。主播夸大和虚假宣传、有不能说明商品特性的链接在直播间售卖等成为消费者投诉最集中的问题。而在近四成遇到过直播购物消费问题的受访者中,只有13.6%表示会主动维权,近半数消费者因为“损失不大”自认倒霉。

直播翻车常有,追责处理却不常有。因此,必须厘清直播电商的责任义务,加大监管力度,督促其自觉诚信、规范经营。近日,中国商业联合会表示《视频直播购物运营和服务基本规范》和《网络购物诚信服务体系评价指南》将制定并执行。这意味着首部全国性直播电商标准即将出台。设门槛、划底线、树标准、立规矩,用制度规范为直播经济这一新业态保驾护航,让直播行业远离“开播卖货,下播甩锅”的困局,运行在健康规范有序的发展轨道上。

当然,要想从根源上治理直播乱象,光靠阶段性的整改还不够,出台标准规范也只是一个新起点。相信随着相关政策法规的颁布落实、监管部门的重拳整治、直播平台的审核监管、商家主播的严格自律以及消费者维权意愿的不断提升,未来的直播平台会让人们看得更开心、买得更放心。

同盾科技参与制定 “互联网内容审核”人才标准

近日,由中国电子学会组织编制的《互联网内容审核职业技能等级标准》正式对外发布。同盾科技作为国内领先的第三方智能风控与分析决策服务提供商,与中国信息安全测评中心等单位共同参与标准的编写制定。

标准在制定过程中,充分参考《中华人民共和国网络安全法》、《“十三五”国家信息化规划》等法律法规及顶层设计要求,规定了互联网内容审核职业技能等级对应的工作领域、工作任务及技能要求。该标准适用于从事互联网内容审核工作人员职业技能等级的考核与评价,互联网内容审核从业人员的聘用、教育和职业培训可参照使用。

内容审核,又叫内容风险防控或内容安全,近年来越发受到各类电商、直播、媒体等平台的重视,随着大量UGC内容的爆炸式增长,一些违规内容也随之横行,不仅为平台的营销、经营及品牌造成极大伤害,更为严重的是一些违规内容也会涉及棘手的法律问题。

基于此,国内第三方智能风控与分析决策服务提供商,同盾科技打造了内容安全智能平台,其中主要包括图像内容安全服务和文本内容安全服务。据了解,同盾内容安全智能平台基于自然语言处理、语言识别、语义理解、图像分类、目标检测、深度学习等核心技术,面向银行、互金、保险、证券、互联网等客户群体,提供包括文本、图像、音频、视频等泛内容安全识别,全面提升企业智能化、批量化UGC等内容综合处理能力、为用户构建牢不可破的安全防御体系。

目前,同盾科技内容安全产品通过了由中国信息通信研究院牵头组织的内容安全解决方案标准资质认证,成为首批通过认证的三家企业之一,并已服务各行业大量客户。同盾愿意与更多企业携手,为打造一个更加安全、健康的网络环境而努力。

内部员工揭秘:TikTok 竟然这么审核内容

由于增长、合规等诸多因素,内容审核对于任何互联网内容产品来说,都是一件很难但却又逃不过的事情,更别提 TikTok 这样一个由中国公司开发运营、 在全 球都爆 红的短视频平台。

TikTok 在短时间内经受了诸多考验和打击,其中许多都和内容审核有关。

去年大批用户诟病 TikTok 对于未成年用户隐私和使用体验保护不力,甚至放任恋童癖肆虐;今年年初有媒体爆料 TikTok 要求审核员对破墙烂瓦或呲牙咧嘴等“视觉上不美好”的内容进行限制;最近美国平权运动大爆发,又有用户指责 TikTok 屏蔽了游行相关的内容…… 如果 不 改进 ,TikTok 的 全球扩张 将面临 更 多 风险。

躲不过,那就正面上。面对这些质疑,TikTok 决定采用开诚布公的姿态来面对。

今 年三月,它宣布在加州洛杉矶办公室内开设全球第一家面向公众开放的“透明度中心” (Transparency Center),为媒 体及数据隐私、内容审核方面的专家提供导览参观,让公众直接和全面地了解 TikTok 内容审 核情况。不过 由于疫情关系,这座透明度中心的开放计划受到一定程度影响。

近日,硅星人还从字节跳动现任和离职员工处,了解到更多关于 TikTok 透明度中心的运营,以及整个内容审核机制的细节。

标签决定一切

根据知情人士透露的情况,参观者在 TikTok 透明度中心将可以看到内容安全方面的关键流程,也能够亲眼目睹人工内容审核员的工作。

以直播内容为例,每一位内容审核员将会面对一块屏幕,上面会有多条(最多同时9条)内容的截图。

这些出现在审核员屏幕上的内容,其来源有两种:

第一种是机器对直播视频进行图片抽帧分析,分析截图中可能包含高风险内容,然后送到人工的屏幕上,审核员主要基于抽帧的结果进行二次分析;

第二种是来自用户举报以及其它渠道,人工操作也类似。

一位了解 TikTok 内容审核机制的信源透露,在审核员能够看到这些内容之前,机器已经进行了不止一道预先审核。最基础的一道就是分析内容的质量,比如那些纯图片、垃圾内容、竞争对手内容,把这些质量明显最低的内容做“不推荐”处理。结果就是不会被出现在非关注用户的信息流上。

与此同时,机器还会借助预先设计的模型对内容进行更高级的分析。这一步自动化操作主要针对的是明显严重违法的内容,比如儿童色情、宣扬恐怖等。一旦内容被模型验证成功,就不是简单的“不推荐”了,而是会直接下架处理。

进入到人工审核阶段后,审核员的主要工作是查看机器提交的截图或直接查看实时视频内容,打上各种标签。

在较早的1.0版本的 TikTok 审核机制中,主要的标签是“推荐”和“不推荐”;现在 TikTok 的内部内容审核系统已经升级到了2.0版本,标签的多样性显著提升了,除了推不推荐,还有“儿童色情”、“裸露”、“性”、“仇恨言论”、“宣扬暴力”、“宣扬恐怖”等诸如此类的大量新标签。 内容被打上不同的标签, 造 成 的结果不同。

值得提及的是,一旦视频被打上那些较为严重的标签(包括机器自动标记和后续的人工核查/手动标记),将会自动触发标签预先设定好的对应操作。

某些标签关联的操作较轻,结果可能是不推荐;至于儿童色情和宣扬恐怖这类的标签,关联的是下架的操作,结果就是直接下架。

如果在自动处理之后,视频的热度达到特定阈值,还会召回人工再看一遍,确认处理是否合适。

简单来说,就是标签决定一切。

这套新的内容审核机制,显著提高了内容标签的数据价值,帮助 TikTok 更好地掌握平台内容生态的动向。

类似的内容审核思路,以 YouTube 为代表的其它顶级内容平台也在采用和。(事实上,TikTok 的思路就是来自于 YouTube。)

前几周,有美国用户宣称自己在黑人平权运动游行现场的 TikTok 直播内容被平台屏蔽。此后,包括路透社等权威新闻机构已经对其进行了事实核查,发现并非如此。

TikTok 在当时并没有对游行内容进行屏蔽处理。巧就巧在当时平台发生了搜索话题故障,包括 #BLM、#Cat 等在内的许多话题搜索都无法显示视频播放量。

根据多位信源透露的情况,TikTok 目前所有的内容审核功能,全部是逐案进行的,并没有一个针对如此大规模活动实时的、全话题级别屏蔽的操作先例。

规则和审核操作完全本地化

现任员工透露,具体的内容审核原则,会根据审核对象所在地不同的法律、法规、文化和习俗,采用不同的审核尺度。

比如在美国消遣大麻使用已经在少数州合法,全国35个州医用合法,如果有来自这些州用户的 TikTok 视频中出现了对应药品,内容审核就会遵守所在州法律的条文,而其他州用户的类似内容则会被判定为违规。

同理,诸如仇恨言论、平权、宗教等争议话题,TikTok 都会在参考各个国家不同的法律法规文化习俗,制定针对性的内容审核标准。

本周 PingWest品玩英文站的一篇独家报道曾经提到,字节跳动正在中国产品团队和海外产品团队之间建立数据和代码防火墙,这项工作已经进行了一年半之久。

在 TikTok 的内容审核中台团队,也在进行着切割,一些此前供职该团队的中国地区员工被迫内部转岗。

字节跳动现任员工透露,在未来 TikTok 的内容审核工作也会完全本地化, 也即意味着: 美国的审核团队负责美国本土上传和直播的内容,甚至在美国会设立多个透明度中心,多个审核团队,分别审核不同州的内容; 印度团队按照印度法律审核印度内容; 新加坡的团队审核新加坡的内容。

TikTok 的计划是,所有内容审核工作都交由本地的团队执行。一些重要的国家或地区市场,也会逐步开设自己的透明度中心,让当地公众可以一览平台内容审核的全貌。不过目前新中心的开设计划并未启动,毕竟美国第一座中心还未完全落实。

一方面为了实现合规运营,最小化公司面临的海外监管和舆论风险,另一方面也是为了一家现象级中国科技公司史无前例的国际化大计,字节跳动在最近几年内进行了多次大刀阔斧的人力和内部技术改革。

拆分团队、设立防火墙,以及 TikTok 升级内容审核系统,都是这些改革的一部分。

TikTok 还在今年三月宣布成立了一个七名外部专家组成的内容审核委员会,包括法律、技术、民权运动和政策等方面的专家列席。

其中一名委员 Dan Schunur 接受科技媒体 TechNode 采访时曾表示,他对 TikTok 主动接受批评、开展合作、做出改变,而非躲避问题的姿态感到印象深刻。

AI又一次打败了人类:仅凭一张自拍照片辨别个人性格

一项新研究表明,人工智能(AI)可在“仅凭一张自拍照片辨别个人性格”这件事上再次打败人类。 与人类相比,机器能够更好地识别一种特征,通过分析人物面孔来确定物种不同的性格特质。 据悉,俄罗斯研究团队开发了一款新 AI,较人类和其它竞争方案更具优势。

计算机视觉神经网络(NNCV)与个性诊断神经网络(NNPD)的层次体系结构。

据悉,这项研究旨在分析目标人物的五种性格特质(外向、神经质、乐于助人、率真、尽责)。研究涉及大约 1.2 万名志愿者和 3.1 万张自拍照,除了提供自拍照,志愿者还被要求填写了个性调查问卷。

结果发现,当分析同一个人的不同自拍照时,AI 会给出一致的个性判断。此外与男性相比,AI 在评估女性自拍照时更加准确。最终,该 AI 的评估准确性“高于平均水准”,且综合表现优于人类志愿者。

研究人员解释称,这种 AI 机器具有许多潜在用途,比如广告行业可借此来挑选更符合产品特质、以及更受消费者欢迎的模特。

有关这项研究的详情,已经发表在近日出版的《科学报告》( Scientific Reports )期刊上。

来源:cnbeta

Facebook内容监管委员会:暂不审核特朗普争议贴文

据外媒报道,作为独立机构的Facebook内容监管委员会周三宣布,将不会审查之前公司拒绝采取行动的总统特朗普发布的争议性贴文。

委员会在一个博客贴文中说,“公共人物发布的可能违反社会规范的贴文在委员会管理范围内,也是委员会在未来几个月正常运转后将考虑的具有挑战性的典型案例。”

在解释不审核特朗普贴文时,监管委员会在博客贴文中表示,特朗普的贴文符合内容审查范围,但是监管委员会还未开始工作,暂时还不能审核任何案例。

博客贴文中继续说到,“我们这个机构不到一个月前才公布第一批成员,今年晚些时候才正式启动,我们还没有资格对今天看到的这些事情做出决定。”

贴文中说,在开始审核案例前,委员会必须先研发案例管理软件工具供成员使用。除此,委员会还将公布另外20名成员,所有成员在委员会正式启动前必须先接受培训。

“委员会开始运转后,我们不会回避棘手问题,也不会考虑Facebook的经济政治利益和声誉问题,”委员会说,“我们在这里不是为了维护Facebook,我们所做的决定都将是透明的,我们也呼吁公司保护自由言论,保护使用者和社会。”

来源:新浪科技

网络平台对AI换脸技术应用的风险控制

近年来,互联网行业发展日新月异,新技术新应用层出不穷,各类人工智能、虚拟现实等新型技术不断应用于各类互联网平台各类服务之中,其中,基于人脸识别、人脸合成等技术手段实现的AI换脸技术应用一直备受关注。AI换脸技术在网络平台应用的一种常见方式为,用户上传含有用户头像的照片,网络平台通过技术处理将用户提交的照片面部信息叠加到用户选择的视频片段(即原始素材)中的人物面部上,从而合成一个体现用户面部信息的新的非真实视频片段。然而,自去年“ZAO”App使用换脸技术引发社会对AI换脸技术的严重信任危机以来,监管部门也出台了相关规定对网络平台及用户基于深度学习、虚拟现实等新技术新应用制作、发布、传播的非真实音视频信息予以规制,基于此,本文将从平台治理角度入手,简要分析为用户提供网络音视频信息服务的网络平台(本文简称为“网络平台”)对AI换脸技术应用的风险控制。

一、AI换脸中的原始素材

要分析网络平台对AI换脸技术应用的风险控制,需要先明确技术应用过程中所使用的原始素材相关权利,主要包括以下几方面。

1、原始素材的著作权

原始素材一般是截取影视剧片段、综艺节目片段等视频作品的内容片段,在网络平台主动提供原始素材库的前提下,网络平台利用AI换脸技术对原始素材的使用包含两个环节:首先,一般会对视频作品进行一定的截取、剪辑、整理,将其加工为短视频并通过网络进行传播,这涉及到了视频作品著作权人的信息网络传播权,如果对视频作品进行编辑、创作后形成的短视频构成了一个新作品,这还涉及到视频作品著作权人的改编权;其次,通过AI换脸技术将原始素材中的原有人物面部改造为用户的面部信息,从著作权的角度,这涉及到视频作品的修改权(即修改或授权他人修改作品的权利)和保护作品完整权(即保护作品不受歪曲、篡改的权利)。故如果网络平台在AI换脸技术应用中未经许可提供原始素材库,会有侵犯著作权的风险。

2、原始素材中的人物权利

原始素材中的人物一般多为参演影视剧、综艺节目等剧集的演员,有种声音认为AI换脸技术对原始素材的应用侵犯了演员的肖像权。法律规定,[1]公民享有肖像权,未经本人同意,不得以营利为目的使用公民的肖像。[2]肖像,是指以某一个人为主体的画像或照片等。通过绘画、摄影、雕刻、录像、电影等艺术手段,在物质载体上再现某一个自然人的相貌特征,就形成肖像。而AI换脸技术的应用是将原始素材中演员面部替换为用户上传的照片面部,在此过程中去除了原始素材演员的相貌特征,故本文认为AI换脸技术对原始素材的应用不构成对演员肖像权的侵犯。

另外,是否侵犯了演员的表演者权呢?根据法律规定,表演者对其表演享有表明表演者身份、保护表演形象不受歪曲这两项人身权利,AI换脸技术的应用中,改变原始素材中演员的面部形象可视为对表演形象的改变,可能会使外界在看到换脸后的新视频时以为是换脸后的人物进行的表演片段,部分观点认为可能或多或少构成了对原始素材中的演员形象的歪曲。但根据影视剧作品的实际运作惯例,演员在参演剧集时一般会保留署名权和获得报酬的权利,而放弃或让渡其他表演者相关的权利至影视剧著作权人(多为制片方),故如网络平台已获得原始素材著作权人的许可使用,且在使用时做好标识使公众对换脸后的新视频不产生非原作品演员表演的误解,本人认为这种情况下获得表演者的许可不应作为必备条件。

最后,如用户恶意上传不雅、恶意照片对演员进行换脸,也可能涉及侵犯演员名誉权的风险。

二、网络平台的风险控制

1、内容合规控制

如前述对原始素材的分析,如果网络平台在AI换脸技术应用中主动提供原始素材库,必须事先获得视频作品著作权人的许可,以避免侵权风险。同时,如果原始素材是由用户自行上传,一般而言用户并未获得视频作品著作权人的许可,此情况下网络平台一般需要遵从“通知—删除“规则,收到权利人的侵权投诉通知后应立即删除涉嫌侵权的素材,则平台无需承担赔偿责任。但需要注意,在用户自行上传的情形下,网络平台如果主动对相关素材进行推荐、纳入模板库等行为,则一般会被认为突破了“避风港”原则,需要和侵权方承担共同侵权责任。

网络平台需要避免用户利用此换脸功能发布违反法律法规规定的内容(如淫秽、暴力、反动等违法内容),尤其是用户利用平台的换脸功能发布含有他人头像的前述内容,会对他人的名誉造成严重影响,故网络平台在对换脸内容的审核方面应从严、从紧,做好事先审核、事中巡查,综合利用机器和人工多重内容识别、筛查手段,降低平台违法侵权风险。

2、用户的行为约束

在AI换脸技术中,存在用户冒用他人照片发布换脸视频而侵犯他人肖像权的隐患,尤其是如果用户随意上明星照片去合成换脸视频,引发侵犯明星的肖像、名誉等情形极易给网络平台带来侵权法律风险甚至是舆论危机。故在用户上传照片时,网络平台可通过技术手段对用户进行人脸信息对比验证以确保用户上传的是其本人照片,降低侵犯他人肖像权的风险。

同时,为防止用户利用换脸视频进行商业性行为或者其他不当行为,一般来说换脸视频仅供用户在网络平台内娱乐使用或者按照网络平台的要求的范围和条件进行转发互动,故一方面网络平台在其相关用户协议或活动规则中应要求用户不得将合成后的换脸视频用于任何商业目的或任何营利性活动,另一方面考虑从平台功能上进行限制操作的设置,使用户客观上无法将使用网络平台相关功能发布的换脸视频下载到本地。

3、新生成视频的标识

国家互联网信息办公室、文化和旅游部、国家广播电视总局于2019年11月18日联合印发了《网络音视频信息服务管理规定》(自2020年1月1日起施行),其中规定,[3]网络音视频信息服务提供者和使用者利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播的非真实音视频信息的,应当以显著方式予以标识。故网络平台在应用AI换脸技术时,须在用户协议中,要求用户在利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播非真实音视频信息时需作出标识,内容审核或巡查中发现用户传输此类信息未打标的,须及时予以处置。同时,也可以尝试在产品功能设置上留给用户可用的打标功能,或者在主动提供素材库的情况下可实现换脸后视频自带水印、角标等功能,以更好的防控此类风险。

4、个人信息保护

去年“ZAO”App爆发危机时被大众最为诟病的一个问题是其涉嫌侵犯用户隐私,使用户的头像和面部信息有被泄露的安全隐患,根据“ZAO”App当初的用户协议,用户一旦使用换脸功能上传其照片,”ZAO”App不仅可以免费使用用户的肖像,还有权将用户的肖像进行转授权、再许可甚至是进行改动,在众多金融支付工具已采取人脸识别等生物识别技术的当今社会,这样的“霸王条款“给公众带来的不仅是疑惑,更有恐慌。从用户隐私及个人信息安全的角度,用户的面部信息和特征是极其核心的敏感信息,[4]网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。

网络平台中的AI换脸技术应用,多是为用户提供一个娱乐、互动的游戏或活动,遵从个人信息保护的原则,网络平台在收集使用用户的人脸信息时,必须仅将其应用于本次使用场景,在用户完成换脸视频合成后,网络平台就应从服务器中删除用户上传的照片信息及其人脸识别过程中所扫描的面部生物识别特征信息,不再保存,也不得再将前述信息用于其他任何用途,更不得转授权或与其他任何第三方共享用户的前述信息。

此外,从用户个人信息的收集方式而言,一般常见的方式为将前述关于用户个人信息的收集、使用、存储等事项详细、明确的展示在平台的用户协议、隐私政策或具体的活动规则文本当中,不得在相关文本中违反法律法规规定超范围使用用户的敏感信息,并做好文本的确认及公示流程,确保用户在使用AI换脸功能时明确知悉相关隐私问题,做到心中有数,安心娱乐。

全国政协委员马进:建议规范人脸识别数据采集

刷脸付款、刷脸进门、刷脸购物……当人脸识别技术被广泛应用,个人信息安全该如何得到保障?

今年“全国两会”期间,全国政协委员、致公党上海市委专职副主委、秘书长马进拟提交一份提案,建议我国制定人脸识别技术应用管理办法,规范人脸识别数据采集、存储,并加强对人脸识别数据使用的监督。

提案指出,人脸识别是利用AI技术,基于人的脸部特征信息进行身份识别的一种识别技术。自苹果公司将人脸识别开始用作身份认证以后,许多公司争相效仿,包括国内的银行、保险等金融机构。

然而,目前我国人脸识别技术的应用还存在一些问题。比如:人脸识别技术认证能力参差不齐;人脸识别的应用流程不够规范;人脸识别的法律效力尚未确认;对人脸识别的数据保护不足;人脸识别应用尚未被普遍接受等。

针对上述问题,马进在提案中建议,尽快对人脸识别技术应用制定相关的管理办法,使该领域监管做到有法可依,有章可循。在制定管理办法时,应着重考虑以下几方面问题:

第一,要规范人脸识别数据采集、存储。

由于人脸识别数据库关系到公民隐私和国家安全,有必要对建立人脸识别数据库进行必要的规范。为建立人脸识别数据库,对居民进行数据采集前应当进行提示,确保居民的知情权。用于公共事业的人脸识别数据库,可由政府部门或由国家监管部门向符合条件的公司发放牌照委托制作。

第二,要加强对人脸识别数据使用的监督。

对于在人脸识别数据库的基础上新建大的应用或者敏感应用,均应纳入审批事项。对于建设中小型的应用,应该实行备案制度。人脸识别数据使用单位应当有严格的内控制度,建立内部审批流程,并且建立台账。每条数据使用,应当在系统中留下相应痕迹,以备相关部门查询。

第三,要明确对人脸识别软硬件进行认证。

建议对人脸识别系统软硬件进行专业认证,可以采用分级的制度。各单位可以根据实际应用采购相应等级的系统,用于合同交易、内部控制等不同等级的应用。认证可以采用国家机关认证或者第三方认证的方式,如果采用第三方认证,则必须加强对第三方公司的监管。

第四,要确认人脸识别数据的法律效力。

鉴于目前现实中,在金融交易行为中已经大范围将人脸识别作为身份认证的依据,建议对于使用符合资质的人脸识别系统作为人脸识别身份认证的予以法律性确认,即用户在人脸识别系统中“刷脸”,可以视同为本人签名,以减少后期合同纠纷的产生。

第五,要对监视系统的应用进行限制。

利用人脸识别对嫌疑人进行监视,是一项较为敏感的应用。建议如需在公共场合建立监视系统,只能由国家机关或其授权的单位统一建设;如需在私有区域建立监视系统,且需要用到人脸识别系统的,则需要向有关主管部门进行备案。

第六,要设置相应罚则严惩违法行为。

由于人脸识别技术的应用较为敏感和重要,建议采用修改《刑法》等相关法律或出台相关司法解释等方式,对利用人脸识别技术进行违法犯罪的行为以及不法分子进行严惩。

来源:澎湃新闻