政协提案关注人脸识别滥用,建议探索立法保护公民个人信息

广东省政协十二届四次会议正在广州召开。近年来,人脸识别技术开始应用于越来越多的领域,在交通、治安、疫情防控等方面发挥了重要作用。但与此同时,也面临着引发复杂多元的科技伦理、公共安全和法律等风险。因此,规范人脸识别技术应用,成为集体提案和委员建议的一个焦点,大家围绕如何规范技术应用,保障公民个人信息安全和促进人工智能产业健康、有序、良性发展建言献策。

集体提案:先行探索立法保护公民个人信息

致公党广东省委会集体提案建议立法规范人脸识别技术应用。目前,个人信息保护法(草案)已经提请全国人大常委会审议,草案将个人生物特征信息列为敏感个人信息,与一般个人信息相比,规定了更加严格的保护标准,但具体操作实务问题仍有待进一步探索。广东作为改革开放先行者需勇于担当积极探索,可以结合草案规定的原则精神和广东省实际情况先行进行省内立法,使保护公民个人信息的内容更具有操作性,为国家进一步立法积累经验。

人脸识别技术的应用并不是越广泛越好,而是存在一个度的问题。有必要规定只有在具有特定目的和充分必要性的前提下,方可处理个人敏感信息,避免过度使用引发的风险。同时限定人脸识别适用的范围。如对于一些涉及公共安全的事项,确有必要推行人脸识别技术的领域可以允许其适用,对于一些有其他技术可替代、可不适用的领域如公共场所门禁、移动支付等限制其适用,防止大规模适用所导致弊大于利的不利后果。建议规定项目引入人脸识别技术,需要事前进行风险评估。并规定收集方的数据保管义务,收集方要采取相应的安全保障措施,配套相应的安防保障系统对所收集的数据妥善保管,防止数据泄露。违反保管义务,则应当承担相应的法律责任。

加强管理:引导行业自律,完善标准和伦理规范

民革广东省委会集体提案建议,要确保安全底线,探索构建新型人工智能治理框架,在发展与安全上取得平衡,保障产业行稳致远。

建议由公安部门统一承担人脸识别应用的审批与监管职能,设立相应审批标准及程序,加强资源统筹、部门协作、信息共享。除道路、交通工具、银行等法律规定的安防应用以外,涉及对特定及非特定对象的处所,公安部门依法审核其合法、正当和必要性;监控数据安全,要求以必要安保措施限于最小范围使用。对于如小区管理等特定人群人脸识别应用,须以自愿为原则由个人信息主体进行必要性审查。物业应将其视作新增公共设施建设项目,交由业主按户数及面积2/3以上投票通过后方可申报审批,禁止非授权擅自使用人脸识别。对于如商场等非特定人群的经审批的人脸识别应用,须以显著标识告知相对人。

集中整治不规范的采集与使用。对不合规安装、使用人脸识别技术的要求定期整改,依法打击非法滥用行为。制定集中整治计划,开展自查、主管核查、公安检查和市民举报等专项整治。同时清理电子政务平台人脸识别认证安全漏洞,不给不法分子有可乘之机。

同时引导相关行业协会和中介组织制定人工智能产业技术标准、行业自律规范,制定伦理规则,强化保护个人隐私责任。开展宣传教育,强化企业伦理与法律培训。

实地调研:人脸识别滥用、数据未安全妥善保存

民革广东省委会的集体提案指出,当前人脸识别技术在交通、治安、疫情防控等方面发挥了重要作用,同时也可能引发复杂多元的科技伦理、公共安全和法律风险,需要引起高度重视。

提案执笔人、民革广东省委会经济委员会委员、高层协商专家委员会委员刘根生近日在几个小区调研发现:人脸识别滥用以及采集后的数据没有得到安全妥善保存的状况并不鲜见。

“人脸识别生物信息具有唯一性、永久性,一旦泄露即终身泄露;企业安保水平与能力参差不齐,人脸照片、视频及伪造3D头套等都有可能被机器识别。如果允许任何组织单位可随意收集民众人脸数据生物信息,数据被泄露与滥用可能性急剧上升,引发严重的科技伦理问题,公民隐私权受到威胁,将极大伤害公众安全感。”刘根生说。

来源:广州日报

小区、公厕、健身房……“人脸识别”遍地开花:处处刷脸有必要吗?

去年12月中旬,申城市民夏先生前往徐汇滨江休闲游玩,当他走入“海事塔”附近的一处公共厕所时,他惊讶地发现,公共厕所里的取纸机竟然是“人脸识别”的智能款,必须刷脸才能取出一小段手纸……

“刷脸取纸”只是人脸识别技术在申城运用的一例。从打开手机的各个软件需要刷脸认证,到刷脸进小区、刷脸进门幢、刷脸扔垃圾、刷脸进健身房,刷脸已经深入到了生活的方方面面。并且,在申城推进数字化转型的背景下,对原有设施进行智能化改造已成社会潮流。而在形形色色的“智能门禁”“智能垃圾桶”等设备中,“人脸识别”更成标配,似有“无刷脸不智能”之势。

不可否认,刷脸会带来一定的方便。但不少市民也致电上海12345市民服务热线,表达对刷脸背后隐私泄露隐患深深的忧虑。他们质疑,处处刷脸真的有必要吗?

  小区强推“刷脸”门禁引不满

去年12月3日,解放日报·上观新闻曾报道过浦东新区证大家园小区的智能门禁安装纠纷,8部智能门禁安装不到1个月被迫拆除4部,其中一个原因正是居民对于门禁中“人脸识别”功能的抵触。在“人脸识别”的众多运用场景中,小区智能门禁已较为广泛,随处可见。不过,与发生在正大花园小区类似的纠纷也不少。

今年1月17日,徐汇区东安路271弄广汇花苑居民李女士就致电“12345”,投诉小区自1月1日起启用的“人脸识别”门禁系统给她带来了极大不便。据她称,小区曾在去年12月底贴出告示称要启用新门禁系统。据称,小区使用的是企业开发的“人脸识别”系统,这让她无法放心交出人脸信息。但此前小区称除了刷脸进出外,也会提供刷卡等其他验证方式,因此,倾向于继续使用门禁卡的李女士就一直没有去物业配合采集人脸信息。岂料,新门禁系统启用后,“人脸识别”成了唯一的验证方式,她因此无法进出门幢,每次都得趁其他居民进出时“蹭”进去,有时候得等上半天。

  1月19日,记者在广汇花苑看到,小区两个门幢入口处,旧门禁尚未拆除,一旁亮着大屏幕的“dahua”品牌新门禁设备十分显眼。屏幕上方,两只摄像头实时拍下门幢口的情况。当屏幕上出现人脸后,一个方框很快将人脸区域锁定并加以识别,如未登记则拒绝放行。记者在现场观察了一会,发现这套设备较为稳定,登记居民的识别成功率很高。一些居民对新门禁赞不绝口,评价它“速度快”“方便”“不用带卡,比老的好用多了”。

那么,李女士担忧的隐私泄露隐患存在吗?记者来到物业处,询问门禁系统的使用细节。物业工作人员告诉记者,由于对面就是肿瘤医院,小区群租高发,二房东活跃。采用智能新门禁是业委会的决定,除了方便业主之外,业委会还寄希望借启用新门禁系统的契机,将二房东和短租客拒之在外。新门禁安装启用前也做过征询,得到了大多数业主的支持。物业称,门禁系统的提供方是“街道介绍”的,人脸数据也只储存在物业本地,安全性有保证。“400户业主中,目前只有10多户反对,拒绝使用。”记者提出,屏幕下方有刷卡识别区域,为何不给反对的业主们提供刷卡的替代选择?物业称,这是业委会的决定,物业只是执行方,“暂时只能报个室号,请保安帮忙刷开。”

李女士认为,小区如此强推“人脸识别”,剥夺了居民正当的选择权。

  扔垃圾也刷脸是否过度收集信息?

如果说,在“人脸识别”智能门禁的运用场景中,居民尚能够想明白提供个人信息的目的和用途,但在其他一些场景中,人脸等信息的索取则显得有些“过度”。

市民戴先生日前致电“12345”,反映所在的宝山区顾村大家园B区为了方便业主投放生活垃圾,设立了误时投放点,且用上了智能垃圾桶。但居民们发现,投放垃圾时要提供大量个人信息,甚至包括人脸信息。戴先生不明白,扔个垃圾为何要收集那么多信息?

1月19日,记者从顾北东路小区北门进入,门卫室后侧就是挂着“四分类智能投放点位”牌子的小屋。屋内,8个各类型垃圾桶卡在4台“精灵小松鼠”智能设备的下方,投放口的开合由扫描二维码的探头、扫描人脸的摄像头和触控屏幕组成的智能设备控制。市民需点击投放垃圾的类型,随后刷脸或二维码认证,开启相应投放口。

  中午时分,一位居民拎着两袋垃圾走入屋内。只见她熟练地站到屏幕前,点击湿垃圾按钮,屏幕随即出现一则圆框,人脸也同步出现在框中。前后调整站位使人脸居于正中,但屏幕仍然提示“您未开通人脸识别”。再次尝试,智能设施这次终于认出了居民身份,并开启了投放口。记者留意到,屏幕上除了显示居民的实名信息外,还显示了本月投放次数、违规投放次数、账户积分以及本次投放垃圾的识别结果。

  居民告诉记者,要使用误时投放点,需要在手机上进行繁复的注册过程,提供楼号、户号、人名等信息方能获得“开箱码”。进一步在智能设备上进行人脸识别后,即可绑定人脸信息,用刷脸代替扫码。绑定人脸信息虽非强制,但开通刷脸可以不用每次掏手机,方便不少。“不怕泄露隐私吗?”几位居民不置可否:“应该不会吧。”

  居民戴先生认为,垃圾投放是刚需,对投放行为进行必要的管理可以理解;但平台借此收集大量个人信息、甚至是人脸信息的必要性值得商榷,对个人信息是否有足够的保护也让人担忧。

  公厕、健身房……“刷脸”越来越多

除了上述小区内的运用场景外,在申城,“刷脸”的地方正越来越多。

厕所为什么也要使用人脸识别?日前,记者也来到了徐汇滨江,找到了位于“海事塔”南侧的一处公共厕所。市民夏先生所说的,是厕所进门处右手侧的一台“首联”人脸识别供纸机。“注视这里三秒自动出纸”,依照机器上的提示,记者站到了正前方,并抬头注视屏幕。还没反应过来,人脸识别已完成,右下角的取纸口哗啦啦出了纸。刷脸一次,机器吐出了6小节卷纸。此时,若再注视摄像头,机器则反复语音提示“你已使用一次,请稍后再试”,同时屏幕显示“距下次取用剩9分钟”。可见,人脸识别的主要用途在于限定一个人10分钟内只能取纸1次,防止如厕者反复取纸造成浪费。

  人脸识别供纸机“解放”了公厕管理员的部分工作,她告诉记者,“就是记住你,不让你多拿”“放一大卷纸进去,足够用两三天,挺好的”。据称徐汇滨江的3个公共厕所均已安装了上述设备。记者现场也留意到,取纸机实则还提供了扫码取纸的功能,但人脸识别功能默认开启,如厕者除非将脸刻意挡住,否则避不开被刷脸。那么,机器收集的人脸信息会泄露吗?或许为了打消如厕者的顾虑,机器下方大屏上滚动着“温馨提示”,称机器“只临时记录特征”“定时删除,不储存任何人脸信息”,并强调“本设备经公安部安全监测中心检测认证”。

  同时,闵行区市民萧女士也反映,称其所在的运动俱乐部近日因为装修,她被临时安排至银都路上的另一门店。她发现,该门店进出需要进行人脸识别,尽管她配合采集了人脸信息,但她担忧个人隐私也会因此泄露。记者近日在该健身房看到,该健身房启用了一套“UFACE”的人脸识别系统对会员进行管理。会员到店后,只需在前台的机器上刷脸签到,随后即可刷脸进入健身房、游泳池以及更衣室。该运动俱乐部的负责人告诉记者,之所以使用人脸识别系统,目的是为了提升会员的体验度,“人脸的识别率高、自由度高,比会员卡、指静脉等其他识别方式都要方便。”该负责人强调,俱乐部在采集人脸信息时征得了会员的同意,信息也储存在本地不联网。会员若担忧信息泄露,可以随时提出退卡,俱乐部会在后台删除其人脸信息。

  人脸识别技术到底有没有被滥用?

使用越来越广泛的人脸识别正引起了申城市民们的关注。在记者走访的几个场景中,人脸识别的确可以提升管理效率。但是,人脸识别都不是必须的唯一方案。在担忧隐私安全的同时,是否一定要采集个人信息、是否一定要使用人脸识别技术也备受质疑。以小区智能门禁为例,一些小区选择使用政府部门统一部署的“智慧安防”项目,除了人脸之外也提供传统的刷卡验证方式,推进时则较少引发矛盾。但如若处处皆要刷脸、且强制让人接受配合,不少市民则认为已属于“滥用”。

  滥用人脸识别技术会对社会和个人带来安全、隐私和歧视等风险。人脸识别使用的边界到底在哪呢?上海市科学学研究所人工智能研究组李辉博士认为,政府应对人脸识别技术运用采取规范措施,在技术的创新和监管之间取得平衡,从而更好地服务于上海城市数字化转型。

李辉博士介绍,欧盟、美国都已针对人脸识别推出了相应的法规。如2018年欧盟实施的《通用数据保护条例》第9条规定,生物特征数据属于个人数据的“特殊类别”,除某些特殊情况外,不得处理该类数据,也就是遵循“原则禁止,特殊例外”的原则。美国议会当下正在审议的《商用人脸识别隐私法草案》,也禁止商业机构在未获得个人明示同意的情况下使用人脸识别技术。国情不同,需求不同,必然会导致治理有差异,但是“科技向善”的理念却是一致的。去年以来,我国也出台了不少有关生物识别信息采集的规定,如今年1月1日正式实施的《中华人民共和国民法典》第1035条规定,处理生物识别信息等自然人的个人信息,应当遵循合法、正当、必要原则,不得过度处理。天津等地不久前也出台地方法规,规范人脸识别技术的运用。

他建议应结合国家《民法典》《网络安全法》《个人信息安全规范》等法律规范,建立健全人脸识别技术应用的相关制度,规范人脸识别技术应用,防止滥用,实施人脸识别应用实施的申报制度。如居民小区安装使用人脸识别系统,首先按照“人民城市人民建,人民城市为人民”的理念,鼓励公众参与技术应用的合理性评估。其次,由相关部门按照《网络安全法》对人脸识别系统做安全等级评估;规范中还应包含对人脸识别技术滥用的问责制度。试点监管沙箱等机制对人脸识别技术和相关企业进行包容审慎、支持创新的监管。

同时,在人脸识别系统应用中也应当注意包容,提供可替代的其他手段,尊重排斥新技术的群体尤其是老年人的选择权;此外,还应制定相应的伦理规范。针对人脸识别技术带来的歧视等风险,开展伦理道德等社会规则研究和风险防范干预。

“据我所知,上海相关部门已在协同立法机构,就这些问题进行前期研究,相信会因地制宜做出具体的规范和限制。”

短视频内容审核:平台展示“萌宠”,非法交易野生动物

近日,国内野生动物保护组织美境自然(BRC)发布《短视频社交媒体上的野生动物贸易》,以11种保护野生动物为对象,在各种短视频平台上对相关内容进行了为期一个月的调查。

打着“萌宠照”的幌子,短视频平台正在成为非法买卖野生动物的新平台。一只只看着可爱的野生动物,它们面临着被交易的事实,等待它们的可能是被圈养甚至不当饲养后的死亡。短视频平台为野保动物交易站台,助纣为虐实属不该。

调查所涉及的国内三大头部短视频平台中哔哩哔哩和抖音两家暂没有明确的野生动物保护政策,即使建立了政策明确的快手平台,也没有履行检查和核对的义务,高达77%的视频仍有评论询问如何购买。有一个国家《野生动物保护法》对野生动物的保护有具体的等级。早就明确规定严禁保护禁止交易的野生动物,但仍然在网上明目张胆的出售,明目张胆的违法。面对短视频平台的“触雷”,野生动物保护部门应该毫不留情地予以打击。

那么,短视频平台应该如何加强审核,从而维护平台本身的利益呢?

这就要求媒体行业从多种方面提高视频审核效率,具体来说:

一、针对敏感词去进行监控

敏感词的监控机制不仅监控发布的内容,还监控评论。一旦内容监控到敏感词拒绝直接发送,评论区监控到敏感词满足一定的审查要求,需要对视频进行审查,并将敏感评论的用户记录到“嫌疑人关押处”。

二、建立健全对视频发布者的认证与审查机制

为了维护良好的网络环境,短视频平台应建立视频发布者认证机制,建立发布低俗、敏感、色情相关信息的用户黑名单,采取加强审核、禁止视频发布等措施,完善用户审核机制,避免使用新账号继续发布非法视频。

三、视频评分机制

视频评分机制有两种类型。一个是连续优秀视频发布商发布的视频系统自动通过审核。这个优秀的标准是非常严格的,比如毫无污点,达到一定数量的喜欢、评论和关注。只有这样才能评为优秀;还有手动评分机制。评分标准将非法内容的直接删除反馈给发布者,记录用户数据、操作者、原因、时间,以便每次审核都可以追溯。同时也可以用来统计App里发的是什么类型的视频,用于年度总结和反思。

四、员工考核机制

员工考核机制包括每日完成率、审批通过率、单位平均视频审核时间等。其目的是防止员工偷懒,而不是严格审核,奖励优秀员工。

科技可以为媒体创造更多的发展空间和盈利模式。作为一个新媒体平台,不要忘记相关短视频运营商首先要履行法律赋予的义务。短视频平台不能为赌博、吸毒等非法活动以及非法野生动物贸易提供舞台。加强审核,遵守规则,维护平台利益,为网民创造健康安全的环境。

APP内容审核:步步高家教机多次涉黄内容审核该如何去做?

步步高家教机最近被推到了舆论的前沿,因为其应用商店中的“小肚皮”应用包含不适合未成年人观看的内容。

据悉,该软件具有职业换装、“圈子”社区、“小窝”、“游乐园”等功能,而其中的“处关系“交友。也被批评为低俗和不适合未成年人。

甚至还有诱导自拍,‘按要求充值VIP’,“躺床上拍,伸直,从大腿跟拍到脚指头“等内容。这都是被控诱导猥亵未成年人,影响是可怕的。

数起涉黄的事件许多父母担心。毕竟学习机的用户主要是未成年人,很难区分信息的好坏。对于孩子来说,这样的信息无疑是非常危险的。

而新闻里的事件,绝不是个例也不是偶然。虽然每次步步高都有回应,但这不是它的错,主要是因为第三方软件的内容有问题,而且已经被它自己审核过了。但审核不严难道就没有错吗?

事实上,步步高的审核不严,放松管理与其产品中不断出现的此类问题密切相关。步步高应该如何去做好内容审核呢?

一、审核方法包括机器审核和人工审核

机器审计解决批量问题,人工审计解决其他问题。所有平台都成立了人工审核小组。机器审计只适用于具有明显特征和公众共识的违规行为,也可以作为人工审计的辅助判断工具。

二、通过社交媒体宣传自己

抓住微博,微信等社交媒体兴起和广泛使用的机会。积极扩大宣传口号。您可以通过这些社交平台将您的思想,观念和精神传递给社会。在这个过程中,沟通的内容非常重要。步步高家教机作为儿童教育的辅助软件,必须使用多种渠道来促进正能量。

三、充分利用舆论监督系统

通过舆情监测系统,可以监测和检查信息发布者,舆论发生的时间和发展以及敏感词的出现,并可以预先制定舆论应对计划。当舆情监测系统在软件上检测到不良信息时,它将立即做出响应。积极回应并不是为了避免问题,而是要对问题及其将来的解决方案做出合理的解释。积极消息将在处理后积极传播。

在为青少年创造安全学习方面,步步高还有很长的路要走。因此,要想在竞争中获得一席之地,不被淘汰,步步高家教机不仅要大力发展人工智能技术,做好产品研发,还要为这些“小用户”的成长承担更大的责任。

对于步步高家教机,在当前时代,要获得更多的资源,要更好地操作它并不容易。面对互联网上的负面舆论,如何避免它也是长期运行的必要条件。只有通过各种监测避免滋生负面舆论,我们才能保持自己的良好形象。对于整个行业来说,只有基于人工智能技术,保证用户的信息安全,认真做产品,而不是为了赚钱去做损害企业形象和社会利益的事情,才能更长远的发展。步步高的这个事件值得整个行业引以为戒,反思自己,努力前进。

央视点名直播带货乱象调查 直播平台如何进行审核?

直播带货是近几年兴起的一种新型的服务方式,直播电商行业的高速发展不仅给不少厂家和供应商打开了销路,也给消费者带来了便利。但是在直播带货兴起的同时虚假宣传、货不对板、售后维权难等一系列的问题也日渐凸显,直播带货行业究竟是一个什么样的景象呢?以下来看记者调查。

央视《正点财经》报道直播带货乱象

宋宁是某短视频平台一名主播,他告诉记者,今年以来直播带货行业发展迅猛,来找他们合作的商户也比过去有了大幅增加,除了一些品牌经销商和厂家,大量的第三方机构也在涌入直播带货行业。宋宁:“所谓的第三方,他们自己本身来讲没有产品的,但是他们能够通过一些关系找到一部分的产品,他们也没有对这个产品做一个基本的认证或者质检,就直接来找到我们了,往往这种机构找的产品价格肯定是相当低的,但是对于品质来讲是要画一个大大的问号了。”

据业内人士介绍,第三方机构给的价格通常是全网最低价,价格上的优势明显,符合现在大部分机构的选品标准,但同时第三方机构的质量问题在把控上却是最难的,一旦发生质量问题,就极易产生虚假宣传、货不对板等问题。

“因为大部分MCN机构,在选品的时候都有三个标准,第一个标准是国内比较知名的品牌;第二个标准就是进过绝对头部的达人,头部网红直播间的产品。如果它前两个条件都没有达到的话,它能给到MCN机构全网最低价的话,也会去选择这样子的产品进入到直播间,第三个标准的话是最容易翻车的。”

辛巴、罗永浩和康巴赫厨具因售卖假货或者虚假宣传被处罚

近日,广州市市场监管局通报了“辛巴燕窝”事件的调查处理结果,拟对辛巴旗下公司广州和翊电子商务有限公司做出责令停止违法行为,罚款90万元的行政处罚。对明知品牌燕窝供应方广州融煜公司作出责令停止违法行为,罚款两百万元的行政处罚。

(“辛巴燕窝”事件的调查处理结果)

实际上,直播翻车的不止辛巴,罗永浩在直播间销售“皮尔卡丹羊毛衫”后经检验产品为非羊毛制品。巴赫厨具有限公司也被浙江武义县市场监管部门处以罚款,被责令停止违法行为尽快消除影响。理由正是,使用德国品牌等引人误解的虚假宣传的违法行为。

(康巴赫厨具因虚假宣传被浙江武义县市场监管部门处罚)

市场监管总局发布网络直播营销活动监管新规

方碧云(广东艾特朗律师事务所律师):“消费者首先是可以向这种商品的经销商,要求经销商来承担一个法律责任。那么在经销商如果找不到的情况下,那么你也可以同时找主播,因为主播相当于是一个广告推介、广告代言人的角色,在法律上面,主播他就要承担对消费者的这一个责任。平台其实是也是有一个合理的审查义务的,如果平台在明知这个产品是存在问题的情况下,仍然允许在他的平台发布的话,那么电子商务平台它也是要对消费者来承担这个赔偿责任。”

市场监管总局日前发布《关于加强网络直播营销活动监管的指导意见》对网络直播营销活动中三大主体即网络平台、商品经营者、网络直播者的责任进行梳理,分层次进行责任划分。

同时,这份意见还要求,要依法查处网络直播营销违法行为,涉及擅自删除消费者评价等电子商务违法、侵犯消费者合法权益、不正当竞争、产品质量违法、侵犯知识产权、食品安全违法、广告违法、价格违法等8大违法行为,并明确依据相应的法律予以查处。

来源:上游新闻

内容审核区块链参与方包括哪几大机构

内容审核区块链参与方包括内容提供机构、内容审核机构、内容播出机构(或 内容发布机构)和监管机构。

(1)内容提供机构

是内容发行机构或内容制作机构,为内容播出机构提供内容源。

(2)内容审核机构

由政府部门组织确定并给予权威审查授权的审核节点,传统内容播出机构的 内容审核部门通过审查后,也可授权作为内容审核机构节点加入内容审核区块链。

(3)内容播出机构

包括传统的广播电视播出机构(例如:各级电视台、各级有线电视网络公司 等)、新媒体平台(例如:各级 IPTV 播控平台、OTT 平台等)以及其他网络视 听节目服务单位(例如:爱奇艺、优酷、腾讯等互联网视频服务平台)。

(4)监管机构

是具有公信力的监管部门,具有审核联盟成员的权利,监管部门保存全量数 据,并拥有查看每一笔交易以及参与者管理的权限。 在多方参与的联盟链中,各参与方在分工协作的同时要职责分明、各司其职。 各参与各方根据用户角色具有不同的权限,包括各类业务数据的写入、读取、业 务权限控制,由区块链数字身份系统实现,底层链节点负责对这些权限进行验证、 响应和处理。

工信部重拳出击,26款毒瘤APP被下架,网友点赞:必须严惩

互联网时代,新技术、新产品的推广和应用一直在深入消费者的日常生活。在为消费者带来方便的同时,也造成消费者个人信息易被窃取泄露的安全隐患。

尤其是在刷脸技术推广开来后,越来越多的消费者照片被不法分子窃取贩卖;部分应用软件甚至专门通过非法收取、转卖用户人脸信息来获利。

对于这些不断诞生的新业态和新技术,我国相关部门一直采取审慎、包容的监管原则。对于新型技术,监管部门通过包容来助推创新,同时寻找合适的监管力度和途径。

但这并非意味着包容就是放纵,也并不意味着这个领域是法外之地。因此,近日工信部重拳出击,对26款毒瘤APP直接采取下架处理,以此惩罚违规APP及其背后的运营者,同时也起到了一定的警醒作用。

12月16日,工信部信息通信管理局发布一则通报。根据通报内容,相关职责部门在针对12月3日通报的60家存在侵害用户权益行为APP企业进行核查复检后发现,仍有部分APP没有按照工信部要求完成整改。

因此,根据《网络安全法》以及《移动智能终端应用软件预置和分发管理暂行规定》(工信部信管【2016】407号)等法律和规范性文件要求,对26款APP进行下架。

从工信部公布下架应用软件名单中可知,其中不少APP都是部分消费者用过的软件,例如小蚁摄像机、最美证件照、九元航空等。

可能部分软件并没有想要利用消费者的个人信息做不法勾当,但强制、违规收集用户个人信息等行为,同样需要整改。对于工信部的严格要求,不少网友都点赞并支持严惩。

笔者了解到,2020年工信部推进的APP侵害用户权益专项整治行动中,自查自纠阶段,已有8000多款APP按要求完成整改。

不过,新型技术或者应用的诞生,永远走在国家法律和相关法规的前面。对于这些技术或应用,国家相关部门已经在加紧制定更合理更有力的监管措施,虽然会慢一步,但红线就在那里。

只要APP或背后的企业不碰红线,尊重消费者的权益和隐私,遵守市场竞争的基本原则,监管的重拳就不会轻易砸到头上。

多地限制人脸识别,人工智能产业的发展受阻了吗?

当下,人工智能已经大范围地应用在生活场景之中,其中机器视觉作为人工智能领域主要的落地技术,应该是我们最熟悉的。

我们不仅能在房地产商、商场、美容院、动物园等商业机构,见到“人脸识别”,还在学校、车站、医院等公共服务场所,享受到“人脸识别”带来的便利。

  可是当人脸识别技术的应用潮涌向人们生产生活的众多领域时,也发生了个人信息“过度收集”以及“隐私泄露”等安全问题。

不久前,南京下发了一则通知文件,要求整改房地产商收集购房人个人信息的现状,于是多家售楼处的人脸识别系统被拆除;就在前后脚,天津也通过了《天津市社会信用条例》,传达出当地相关企事业单位、行业协会、商会等被限制采集人脸、指纹、声音等生物识别信息的信号;并且在过去的一个月,央视已经连续三次报道信息泄露和人脸识别滥用相关新闻。

近期,各地纷纷推出关于人脸识别的规范,这让各界开始关注到在AI技术的应用拓展上,数据隐私问题必定是行业发展的“阴影面”,而这不禁令人开始担忧人工智能行业的发展是否会要踩刹车了呢?

人工智能的发展,是不可阻挡的时代趋势,“隐私安全问题”是伴随着技术应用出现的,这不会成为行业继续进步的“绊脚石”。

针对这一关键问题,国家机关已经推出了相关法律条文,《民法典》也指出了公民个人信息的安全性应该得到保证。所以,我们不用过分担心,相关的法制法规早有准备,来引导人工智能产业的健康、合理发展。

与此同时,“解铃还须系铃人”,人工智能出现的“隐私安全问题”,当然可以交由人工智能来解决。

从技术层面讲,人工智能可以在信息采集的终端进行防护,并且在云管端进行集中锁定,以保证信息不被窃取盗用。总的来说,人工智能本身就是强大的技术,只要在数据流动过程的各个薄弱环节,做到防火墙保护,也能够遏制信息安全问题的出现。

并且,中国信息通信研究院联合百度、腾讯、360、中科院、新工所等等多家机构,聚焦当前AI基础设施及设计研发阶段面临的安全风险,已经撰写了《人工智能安全框架(2020年)》蓝皮书,以应对相关的信息安全问题。

下一步,则需要相关部门、企业、民众共同加强生物识别信息保护意识,在把握底线的条件下促进人工智能行业稳健成长。

我们总讲“问题即机遇”,当人工智能领域暴露出了发展问题时,这并不意味着人工智能产业就会停滞,看衰人工智能的发展,显然是与时代趋势背道而驰的。

刚好,此类问题的出现,恰恰证明了人工智能领域有着巨大的完善进步空间,急需专精网络安全的人才,存在着更多的就业机会。

而事实上,我国网络安全防御人才的缺口已达150万,人工智能作为新基建核心技术,其人才缺口达420万、国内人才供求比例为1∶10……