“迷你世界”游戏存在涉黄及色情诱导信息 游戏涉黄审核势在必行

近日,针对媒体和网民反映深圳迷你玩科技有限公司运营的“迷你世界”游戏存在涉黄及色情诱导信息,涉嫌侵害未成年人合法权益,市“扫黄打非”办公室、市互联网信息办公室会同市文化广电旅游体育局和南山区相关部门进行了核查。市互联网信息办公室依法约谈了游戏运营方负责人,要求切实有效进行整改。

核查表明,该游戏在创作开发者上传的游戏地图中,以及聊天、评论区存在低俗和诱导性内容。由于游戏运营方在这两个环节审核不到位,导致游戏产品出现了危害未成年人身心健康的信息。

4月29日,市互联网信息办公室约谈了深圳市迷你玩科技有限公司负责人,要求切实履行企业主体责任,将游戏从各应用市场全面下架,认真排查清理有害内容,建立健全信息安全管理机制,保护未成年人免受网络违法和不良信息侵害。

据了解,该游戏运营方根据网民投诉,从4月7日开始对游戏平台进行内部整改,游戏中地图评论和黑板、字牌、信纸等具备发布文字功能的道具,聊天系统,个人中心动态展示内容,游戏社区版块的搜索、留言墙等互动环节和功能陆续关闭。

市“扫黄打非”办公室、市互联网信息办公室强调,网络游戏企业要注重社会效益和经济效益相统一,坚持把社会效益放在首位,积极提供健康向上的网络文化产品,传播网络正能量,切实加强未成年人的权益保护,为未成年人健康成长营造良好网络环境。同时,网络游戏消费者也应自觉遵守相关法律法规和社会公序良俗,共同营造清朗的网络空间。

视频审核规则不可忽视的要点你掌握了吗?

Hello,大家好,我是康小康团队,专注于自媒体运营和抖音运营及变现。

有很多的小伙伴不太理解平台的审核规则,那么今天我们就一条条来给同学们解析一下平台的审核规则。

视频内容的高发问题:

第1种就是色情低俗,除了常见的想漏点、性行为内容之外,封面标题中带有隐晦的性暗示也是不允许的,以及大家很容易忽视的,像动物裸露生殖器、女性哺乳、儿童裸露画面的也是不支持的。

第2种是违法违规。违法违规又分为以下三种常见的情况,危险器具的威力展示、违规网站信息和地图不完整,展示危险器具威力的视频内容,对社会是有负面影响的,平台需要严格把控。比如制作弓箭、枪支展示以及电鱼等等。

违规网站信息一般高发于二次剪辑作者,表现为视频里含有赌博网站或者一些色情网站、竞争的信息,这些也是不允许的。还有地图不完整,也是大家一不小心就会遇到的严重问题,大家一定要注意了。维护祖国母亲的完整是咱们义不容辞的责任。

第3种是被内容方投诉下架,非本人创作、拍摄未获得授权的内容,二级加工使用的素材等均存在着版权风险。有的同学问为什么别人能够发布呢?你有没有想过有可能是因为别人拥有授权,所以建议大家多多发布优质的原创内容。

第4种情况,目前涉及广告信息、虚假和谣言以及未经证实的内容也是会影响推荐的。比如说红枣补血就属于典型的谣言。

第5种旅游的创作者需要特别注意,在旅途中拍摄的素材可以丰富,但是剪辑的时候千万要注意了,如果有非普通话的语言是要翻译的,注意了,非普通话,特殊服饰也要尽量的避免。

第6种视频中涉及未成年人的危险行为,不利于未成年人健康成长的内容,也不适合展示,比方说未成年人早恋、未成年人暴力都是不适合的。未成年人的世界观尚未成型,需要我们所有人的悉心呵护。

第7种,猎奇和容易引人反感的内容都不适合出现。比如有些作者在拍摄户外内容的时候,就会拍到像蜜蜂、蟑螂之类,容易引起密集感,或者老鼠、蛇之类容易引起人反感的画面,那么除此之外,恐怖、血腥、暴力等相关内容平台也是不允许的,大家一定要注意了。

那么以上就是大家常见的问题,大家发视频前一定要了解审核规则,让我们一起为净化网络环境做出一份努力,关注我,更多知识、动态、干货、等你掌握,我会持续分享。

Facebook 审核人员暴增,科技巨头的漫漫审核路

Facebook 又搞砸了。像是矫枉过正,这一次它删错了帖。

3 月 17 日,许多 Facebook 用户发现自己从媒体转发关于新冠病毒的文章被删,页面显示这些链接违反了社区的垃圾信息规则。

随着全球范围内新冠病毒疫情越来越严重,围绕疫情的假新闻也逐渐变多,怎样辨别假新闻并删帖,成为社交媒体近期最关注的事。但是,上面提到被删除的文章都属于正式合法的媒体网站,包括 The Atlantic,USA Today,和 BuzzFeed 等美国老牌或新兴的媒体。

也就是说,Facebook 把真新闻当成假新闻删掉了。

疫情期间,社交媒体上假新闻越来越多,如何辨别成了问题 | 视觉中国

矛头很快指向了 Facebook 的人工智能审核系统。由于疫情的缘故,Facebook 在 3 月 16 日暂停了公司所有审查内容人员的工作,内容审核的工作转而交给平台上的「机器人」。Facebook 声称:「由于可供审查的工作人员越来越少,我们将继续优先处理那些迫在眉睫的危害内容,并增加对其他领域的主动检测,以删除违规内容。」

自然而然,人们怀疑是人工智能误删了正规新闻。但随后 Facebook 副总裁 Guy Rosen 声明,这是反垃圾信息系统中的一个 bug,与公司内容审核团队做出的任何调整无关。

虽然整件事闹出乌龙,但这背后反映的是人们对技术的不信任。谷歌最近也警告称,视频平台 YouTube 上以违反内容政策为由的被误删视频可能会大量增加,原因是在新冠病毒疫情流行期间,该公司将更多地依赖 AI 来审核视频,而不是人工。

即便在科技大公司口中,AI 一直在进步,好像可以承担很多人工的工作。但内容审核并不能完全交由 AI 处理,相反,近几年的趋势是,大公司们纷纷扩大了人工审核的规模。为什么人工智能发展了这么多年,审核内容这件事反而需要更多人工?在这背后,大公司又经历了什么?

内容暴增,AI 担起审核重任

互联网不是法外之地。为了解决网络上出现的淫秽色情、暴力血腥等违法内容,很多平台会设置内容审查制度。

有必要提及的是,诸如 Google、Facebook、Twitter 等互联网公司在近几年都大大加强了内容审核的力度。究其原因,大概可以总结为「流量的变化」。

一方面,平台的用户增长到了一个可怕的量级,仅就 Facebook 来看,2019 年第四季度,Facebook 的月活达到了 25 亿,这还只是一个 app,不算 Facebook 旗下的 Messenger、Instagram 和 WhatsApp 等应用。

另一方面,这些年内容形式变得越来越复杂,从文字,到图片,再到现在的视频和流媒体,互联网上的数据量疯狂增加,更多的用户每天都在产出更多的内容。

随着信息、内容和用户的暴增,科技巨头既可能创造了一个新的纪元,也可能打开了潘多拉的魔盒。这个过程中,对于内容的把就显得格外重要。

还以 Facebook 为例。过去,Facebook 对内容的管控相对松弛,虚假新闻、标题党甚至恐怖主义言论经常出现,审核团队人数也意外的少。据悉,2012 年 Facebook 有 8 亿多用户的时候,审核团队只有 50 人左右。

人工智能在前几年变成 Facebook 在内容审核上寄予希望的技术 | 视觉中国

人工智能兴起之后,很多互联网巨头第一时间将技术应用于自身的业务,其中就包括 Facebook。从 2017 年开始,Facebook 就在尝试使用人工智能解决内容审核的问题,当时可以做到使用 AI 图像识别工具来搜索照片,也宣布推出一套能够识别出试图自杀或自残的用户的系统。

但是,当时的人工智能技术并不够成熟。比如在理解语境方面,Facebook 的 AI 系统就不够智能。并且,AI 在当时只能作为辅助判断,并不能真正进行决策。扎克伯格曾在当时的公开信中提到,这套系统可以标记疑似内容,以便团队再次审核。

如今,人工智能在 Facebook 的内容审核上有了长足的进步。根据 Facebook CTO 迈克·斯科洛普夫在采访中说到,Facebook 已经能够自动从社交网络上删除 96% 的裸露内容。而仇恨言论问题则比较棘手,AI 系统可以识别出 65% 包含仇恨言论的帖子。

对于图片和视频来说,人工智能介入审核是非常有效果的,因为计算机视觉识别技术相对成熟。机器通过一定时间的训练都能够识别出敏感类别的内容,比如裸体、比如枪支等等。视频同理,Facebook 曾经展示过 AI 对于图片和视频的识别,基本不会出现差错。

Facebook 人工智能技术在图像识别上的应用 | 视觉中国

然而也在人工智能技术高速发展,看似能代替人们做更多事的时候,Facebook 做出了一项令人意外的举动:扩大人工审核团队。

据不完全统计,自 2017 年开始,Facebook 几乎每年都要招揽几千名内容审核员(以外包形式),这个数字在 2020 年增长到了 1 万余名。他们要做的工作听起来也很简单:按照 Facebook 的用户内容政策,对有害内容进行审核和删除。

到底发生了什么,让 Facebook 对技术「丧失了信心」?

盲点出现

2019 年 3 月 15 日,28 岁的布伦顿·塔兰特(Brendon Tarrant)持枪冲进新西兰基督城的两座清真寺,朝正在参加主麻日的人群射击,杀害了 50 人。这则新闻在全球范围内广泛传播,因为凶手在 Facebook Live 上直播了从准备武器到杀人的全部过程。

行凶过程的直播持续了 17 分钟才被 Facebook 删除,但 17 分钟对于一场直播来说已经足够进行大范围的传播,更何况还有保存下来的视频在平台上扩散。尽管 Facebook 声明自己「迅速采取了行动删除内容」,但有用户称,删除视频几小时后仍可以看到这些内容。

同样的情况在过去两年间发生过数次,Facebook 应对往往不够及时,导致恶劣的情况时有发生。而这就涉及到了人工智能在图片和视频之外的「盲点」——直播。

直播业务成了 Facebook 内容审核上的难点之一 | 视觉中国

和固有的图片视频识别不同,直播对审核的要求非常之高。除了实时识别画面这一难点之外,人们在直播中的一举一动都无法预测,这是目前人工和机器都无法做到的事。谁也不知道,直播者下一秒会在镜头前开枪射击。

斯科洛普夫也提到,AI 没能将新西兰枪击案直播识别为危险内容,因为「它和之前上传到 Facebook 上的视频都不一样,这段视频是以第一人称视角来展现过程,就像电脑游戏。」

所以在 2017 年一次直播杀人事件之后,Facebook 增加了 3000 名人工审核员专门审查暴力直播视频。对于巨大的平台来说,人工智能技术还远能完全取代人类,甚至连取代部分都做不到,内容审核远比人们想象中的更加困难。

人工与 AI 的协作

我们所处的环境是千差万别的。全球各个地区的政治文化背景都不相同,并且每天都可能有变化存在,AI 还无法处理这么复杂的动态。

那么,同样的逻辑放在人工审核上是否可行?这就要涉及到平台的一套审核标准。

2018 年,Facebook 首次公布了详细的内容审核标准,也就是社区守则。经过几个版本的调整,该标准分为六大板块:暴力和犯罪行为、安全、不良内容、诚信与真实性、尊重知识产权和内容相关申请,定义了哪些内容可能会被删除。

但问题在于,不是所有的内容都是非黑即白,要让所有审核人员明确标准,做出一致的决策,本来就是不可能的事。

在内容审核上,人工智能技术和人们思考的逻辑并不相同 | 视觉中国

技术的逻辑和人们思考的逻辑不同。说到底,深度学习技术只是根据既有的数据进行训练,从而展示出的一个个数据模型,它和人类的主动思考完全不一样。因此,如 Facebook 人工智能副总裁杰罗姆·佩森蒂(Jerome Pesenti)所说,「AI 与人类智力的差距非常大,它可以传播人类的偏见、不容易解释、不具备常识,更多的是停留在模式匹配的层面,而不是强大的语义理解」。所以,如果 AI 在内容审核的判断上出了偏差,没有人敢为其担下责任。

如上文提到的,在理解仇恨言论上,AI 并不能像识别图片和视频那样达到高准确率。原因在于内容本身,不同的内容表达上含义不一样,可能取决于上下文,可能只是讽刺但没有到达仇恨言论的高度……因为很难被定义,所以 AI 在审核这方面内容时有局限性。

总结下来,人工智能无法代替人类的问题在于技术在理解语言和行为预测上有一定困难,而这些问题即便人工也不能即刻给出答案。利用 AI 将疑似有害内容发送给人工审核进行二次判断,无论从安全角度还是成本角度讲,都是最优

加州大学洛杉矶分校信息研究教授 Sarah T. Roberts 很早就开始研究社交媒体的内容审核,她最近看到的趋势是,社交媒体的审核方式已经从人工手动审核进化到了训练机器审核,以便人工对机器审核的内容进行决策。当然,在整套审核过程当中,「人」始终没有脱离出这个闭环。「我们将会拥有的是混合动力」SarahT.Roberts 说到。

内容审核的意义

不仅是 Facebook,在大时代的变化下,科技巨头公司掌握了海量的信息和内容,一举颠覆了「媒体」的概念。这种改变世界的影响,是科技公司创始人们刚开始创业的时候无法预料到的。

然而,在改变世界之后,留给他们的问题是怎样不滑向「黑暗面」,甚至让平台更加光明,这也许就是所有巨头投入大量资金和精力做内容审核的意义所在。

平台的内容管控和商业利益一直是矛盾的关系,科技公司要做的就是找到其中的平衡关系。放弃短期的商业利益,约束自己的边界,换取的可能是更大的社会影响力,也是科技巨头必须面对的巨大挑战。

如果把互联网巨头比作一个向前快速滚动的巨轮,算法就是其中一个关键零件,零件偏了一点方向,巨轮的轨迹极有可能发生巨大变化。而零件怎么偏,偏多少,都可以经过掌控者的计算。

因此,大公司们要怎么在引以为豪的「科技」和「商业」标签上加入对社会的影响和价值,是比前两者更亟待解答的东西。毕竟,科技没有善恶,善恶来自科技的使用者。

来源:极客公园

中关村发布全国首个非接触式智能测温系统标准

随着复工复产有序进行,火车站、公交车站、地铁站、机场以及办公楼、居住区等人口密集的区域防控压力加大,体温筛查作为疫情防控中的第一道防线,一场有关“精度”与“温度”的战“疫”由此打响。

比起接触式测温方法,非接触式红外人体测温仪在技术上有着响应时间快、非接触、部署方便、使用安全及使用寿命长等优点。但是,作为防疫需求下形成的新技术新产品,目前,红外智能测温产品“百花齐放”。企业研发的技术要求、产品应用元器件等均有所差异,没有统一的标准衡量,一定程度上限制了产品在防疫场景下的产业化推广。同时,也让该技术及应用呈分散状态,导致产品差异较大,一定程度上也限制了该项技术的深入研究。因此,制定统一适用的标准,显得尤为重要。

4月16日下午,中关村管委会举办线上标准发布会,正式发布中关村标准《非接触式智能体温筛查系统技术规范》(下称“智能测温标准”)。该标准已于日前在全国团体标准信息平台发布。中关村管委会二级巡视员陈文奇、中关村标准化协会执行副理事长王钧以及旷视、中电科11所等12家标准制定工作组成员单位代表约30余人参加了发布会。

标准化推进测温防疫“百花齐放”

作为标准工作组组长,旷视负责牵头智能测温标准制定工作。发布会上,旷视产业标准资深总监梅敬青作为工作组代表介绍了标准主要内容:“智能测温标准从系统基本构成与分类、系统功能要求、系统性能要求等方面明确了非接触式智能体温筛查系统应满足的通用技术要求,并给出了对应的试验方法。智能测温标准中规范的智能体温筛查系统采用可见光+红外测温的双光架构,通过引入AI和计算机视觉技术,解决了高人流量且佩戴口罩条件下实现非接触、无感知的体温筛查问题,同时主要功能或指标高于或等于现有标准,如测量误差优于原国家标准(如:GB/T19146红外人体表面温度快速筛检仪),整体具有较强的领先性和创新性。”

据悉,旷视在疫情爆发初期便立即响应,成立了“抗击新型冠状病毒应急项目组”。经过十余个日夜的奋战,将“旷视明骥AI智能测温系统综合解决方案”从一个想法变为现实,并于2月中旬率先在北京市海淀政府服务大厅与部分地铁站上线。

随后,中电科11所、百度、格灵深瞳、久译、千方、同方威视等企业,纷纷推出了双光测温系统、非黑体测温系统、AI测温安检门、测温闸机、AI多人体温快速检测智能系统等多款红外智能测温产品。另一方面,依托“中关村新技术新产品线上展示推介与供需对接平台”,供需双方开展智能测温设备在线展示和对接工作。目前,多家企业的测温设备已经陆续在物美、沃尔玛、超市发等600多家商超实现规模化应用。

标准凸显四个特点

自3月13日起,中关村标准化协会组织旷视等中关村智能测温领域重点企业组织开展了标准制定工作,经过提案评估立项、工作组组建、标准起草、公开征求意见、技术审查、理事会审批等环节,历时29天,完成标准制定工作任务。4月10日,中关村标准《非接触式智能体温筛查系统技术规范》已在全国团体标准信息平台正式发布。

中关村标准化协会执行副理事长王钧表示,该标准是在已研发的红外成像非接触式体温筛查设备、系统以及相关非接触式体温筛查产品基础上,结合了新一代人工智能AI技术,在当前疫情的防控关键时期背景下应运而生的中关村标准。首先,标准具有国际领先性。对于系统的部分功能、性能与现有国标或行标存在对照关系的,本标准的关键指标高于现有标准,如测量误差、测温速度等优于相关国家标准。第二,标准具有前瞻指导性,充分考虑国内各类应用场景的真实需求,在系统功能上进行了创新扩展,增加了如人脸识别、身份识别、口罩检测、手持高温异物检测等特色功能要求,对未来系统的规范化、智能化、智慧化发展给出了指引。第三,制定流程高效创新,在保证标准质量和程序要求的前提下,大大缩短了标准的创制周期。最后,标准制定以防疫抗疫测温需求为驱动,以旷视、百度、格灵深瞳等中关村企业新研发的红外AI测温产品为基础,标准制定出来后即能得到充分应用,也具有鲜活的生命力,有力推动了非接触式智能体温筛查系统的规范化发展和产业化应用。

看懂《网络信息内容生态治理规定》 互联网内容审核的必要性

为了营造良好网络生态,保障公民、法人和其他组织的合法权益,维护国家安全和公共利益,构建天朗气清的网络空间,国家互联网信息办公室于2019年12月15日发布《网络信息内容生态治理规定》(以下称:《治理规定》),自2020年3月1日起正式施行。

《治理规定》集中体现了习近平总书记关于“网络安全工作要坚持网络安全为人民、网络安全靠人民,保障个人信息安全,维护公民在网络空间的合法权益”的重要指示精神,以网络信息内容为主要治理对象,以建立健全网络综合治理体系、营造清朗的网络空间、建设良好的网络生态为目标,突出了“政府、企业、社会、网民”等多元主体参与网络生态治理的主观能动性,重点规范网络信息内容生产者、网络信息内容服务平台、网络信息内容服务使用者以及网络行业组织在网络生态治理中的权利与义务,这是我国网络信息内容生态治理法治领域的一项里程碑事件,而且以“网络信息内容生态”作为网络空间治理立法的目标,这在全球也属首创。

网络信息内容生态治理符合“以人民为中心”的理念

生态(Eco-)一词源于古希腊字,意思是指人类的家园或者人类生存的环境。习近平总书记在“4·19”讲话中指出,网络空间是亿万民众共同的精神家园。网络空间天朗气清、生态良好,符合人民利益。网络空间乌烟瘴气、生态恶化,不符合人民利益。谁都不愿生活在一个充斥着虚假、诈骗、攻击、谩骂、恐怖、色情、暴力的空间。

《治理规定》将“网络信息内容生态治理”定义为,政府、企业、社会、网民等主体,以培育和践行社会主义核心价值观为根本,以网络信息内容为主要治理对象,以建立健全网络综合治理体系、营造清朗的网络空间、建设良好的网络生态为目标,开展的弘扬正能量、处置违法和不良信息等相关活动。

上述定义反映了党的十九届四中全会《决定》中提出的“建立健全网络综合治理体系,加强和创新互联网内容建设,落实互联网企业信息管理主体责任,全面提高网络治理能力,营造清朗的网络空间”的精神,特别是集中体现了习近平总书记关于“国家网络安全工作要坚持网络安全为人民、网络安全靠人民,保障个人信息安全,维护公民在网络空间的合法权益”的重要思想,符合“以人民为中心”的发展理念,为我国建立网络综合治理体系奠定了坚实的法治基础。

《治理规定》突出了网络信息内容生态治理主体的多元化

网络信息内容生态的治理,应当明确多元参与协同共治的治理模式,要突破市场和政府二元对立和单一主导的模式。在数字经济时代,要以平台思维和社会化思维的模式重新审视政府、企业、社会、网民这四大主体在网络生态治理中的功能和作用。他们已经不是主体支配和被支配的关系,而是基于共同利益和目标的伙伴式关系。

《治理规定》明确了政府、企业、社会、网民等主体多元参与协同共治的治理模式。事实上,网络信息内容生态是由多种文明要素组成的系统,这些要素主要包括网络主体、网络信息、主体行为、技术应用、基础设施保障、网络政策法规和网络文化等方面。笔者认为,在参与网络生态治理的四大主体中,政府的作用是监管、企业的义务是履责、社会的功能是监督、网民的义务是自律。

首先,国家网信部门负责统筹协调全国网络信息内容生态治理和相关监督管理工作,各有关主管部门依据各自职责做好网络信息内容生态治理工作;

其次,网络信息内容生产者,是制作、复制、发布网络信息内容的组织或者个人,应当遵守法律法规,遵循公序良俗,不得损害国家利益、公共利益和他人合法权益,特别是网络信息内容服务平台企业应当履行信息内容管理主体责任,加强本平台网络信息内容生态治理,培育积极健康、向上向善的网络文化;

再次,充分发挥网络监督作为网络信息内容的重要监督方式,这是发挥社会监督最有效、最简单、最直接的形式,能够形成在网络信息内容治理领域,人人皆监督、人人受监督的局面;

第四,网络时代使人类进入到一个无限内容生产的时代,人人都是内容生产者。因此,网络信息内容的治理更多的是以网民自律的形式对自身行为的规范和矫正,这是网络信息内容生态治理一个极其重要的方面。

《治理规定》重点规制三大管理相对人

在网络信息内容生态治理行政法律关系中,与行政主体相对应一方的公民、法人和其他组织是网络生态治理的行政管理相对人。鉴于网络生态治理的对象是网络信息内容,而信息内容的生态治理主要涉及三类主体,即内容的生产者、内容的服务平台和内容服务的使用者,为此《治理规定》重点规制这三大行政管理相对人。

首先,网络信息内容生产者,是制作、复制、发布网络信息内容的组织或者个人,作为制作网络信息内容的组织或者个人,在遵守法律法规的前提下,还要遵循公序良俗,加强网络文明建设;不得制作、复制、发布《治理规定》禁止的违法信息内容,并采取一系列措施,防范和抵制制作、复制、发布《治理规定》明确的不良信息内容;

其次,网络信息内容服务平台,是提供网络信息内容传播服务的网络信息服务提供者,应当重点建立网络信息内容生态治理机制,一是制定本平台网络信息内容生态治理细则;二是健全平台管理制度,重点应当建立和完善用户注册、账号管理、信息发布审核、跟帖评论审核、版面页面生态管理、实时巡查、应急处置和网络谣言、黑色产业链信息处置等制度;

再次,网络信息内容服务使用者,是使用网络信息内容服务的组织或者个人,这是网络生态治理的主力军,应当严守两条底线,一是应当以文明健康的方式使用网络,按照法律法规的要求和用户协议约定,切实履行相应的法律义务;二是在以发帖、回复、留言、弹幕等形式参与网络活动时,文明互动,理性表达,不得发布违法信息,防范和抵制《治理规定》明确的不良信息。同时,对网上的违法和不良信息内容有义务以投诉、举报等方式行使监督权。

《治理规定》明确了网络群组、论坛社区版块的建立者和管理者应当履行管理责任,依法依约规范群组、版块内信息发布等行为;《治理规定》明确要求,网络信息内容服务使用者和生产者、平台不得开展网络暴力、人肉搜索、深度伪造、流量造假、操纵账号等违法活动。

网络信息内容生产者禁止触碰的十条红线

当前,移动互联网应用程序(App)已成为移动互联网信息服务生产的主要载体,对提供民生服务和促进经济社会发展发挥了一定的作用,与此同时,少数App也被不法分子利用,传播暴力恐怖、淫秽色情及谣言等违法违规信息,有的存在窃取隐私、恶意扣费、诱骗欺诈等损害用户合法权益的行为,多数App过度收集个人信息,且设置的所谓“隐私条款”侵犯用户个人信息权,社会反映强烈。

我国网络信息内容生产者数量庞大,截至2019年12月,我国国内市场上监测到的App数量为367万款,第三方应用商店在架应用分发总量达到9502亿次,其中社交通讯类下载量达1166亿次。据腾讯发布的数据显示,2019年仅微信的月活跃账户数超过了11.5亿,QQ的整体月活跃账户数增至8.23亿,每天有近450多亿条消息在微信里传输。

习近平总书记强调,利用网络鼓吹推翻国家政权,煽动宗教极端主义,宣扬民族分裂思想,教唆暴力恐怖活动等等,这样的行为要坚决制止和打击,决不能任其大行其道;利用网络进行欺诈活动,散布色情材料,进行人身攻击,兜售非法物品等等,这样的言行也要坚决管控,决不能任其大行其道。没有哪个国家会允许这样的行为泛滥开来。对此,《治理规定》第六条明确了网络信息内容生产者禁止触碰的十条红线:

一是反对宪法所确定的基本原则的;二是危害国家安全,泄露国家秘密,颠覆国家政权,破坏国家统一的;三是损害国家荣誉和利益的;四是歪曲、丑化、亵渎、否定英雄烈士事迹和精神,以侮辱、诽谤或者其他方式侵害英雄烈士的姓名、肖像、名誉、荣誉的;五是宣扬恐怖主义、极端主义或者煽动实施恐怖活动、极端主义活动的;六是煽动民族仇恨、民族歧视,破坏民族团结的;七是破坏国家宗教政策,宣扬邪教和封建迷信的;八是散布谣言,扰乱经济秩序和社会秩序的;九是散布淫秽、色情、赌博、暴力、凶杀、恐怖或者教唆犯罪的;十是侮辱或者诽谤他人,侵害他人名誉、隐私和其他合法权益的。

网络信息内容生产者违反上述规定,网络信息内容服务平台应当依法依约采取警示整改、限制功能、暂停更新、关闭账号等处置措施,及时消除违法信息内容,保存记录并向有关主管部门报告。

网络信息内容生产者应当防范和抵制八类不良信息

《治理规定》要求网络信息内容生产者应当采取措施,防范和抵制制作、复制、发布含有下列八类内容的不良信息:

1、使用夸张标题,内容与标题严重不符的信息内容。“标题党“是互联网上利用各种颇具创意的标题吸引网友眼球,以达到各种目的,其主要行为简而言之即发帖的标题严重夸张,帖子内容通常与标题完全无关或联系不大,诸如震惊、惊爆、重磅、罕见、深度好文、轰动全国、绝密偷拍等字眼。笔者在网上搜索了类似“震惊13亿中国人“、“感动了中国13亿人“、”重磅“、”深度好文“等标题,其内容与标题完全不符,多数以夸张的、曲解的、煽情的甚至无中生有的方式误导网民。

2、炒作绯闻、丑闻、劣迹等信息内容。当前,娱乐界炒作绯闻、丑闻以及劣迹比比皆是,以明星绯闻八卦为噱头,特别是通过明星和狗仔队的配合来制造绯闻、丑闻、劣迹的热度,这些低俗文化和行为愚弄了大众、污染了网络、触碰了法律,必须依法治理。

3、不当评述自然灾害、重大事故等灾难的信息内容。我国地域广、人口密集,自然灾害种类多,重大安全事故时有发生。笔者注意到,每当自然灾害和重大安全事故等灾难发生时,总有一些没有事实依据的评述,不仅混淆了是非,而且给社会带来极大的负面影响,必须坚决予以抵制。

4、带有性暗示、性挑逗等易使人产生性联想的信息内容。为了吸引流量,一些网络平台,以文字、语音、图片、视频等方式进行带有“性挑逗”、“性暗示“的不良行为,比如所谓的“文爱”、“磕炮”等,这些信息内容均带有性暗示或性挑逗的软色情内容,极容易使人产生性联想。

我国《刑法》对淫秽物品的定义是,具体描绘性行为或者露骨宣扬色情的诲淫性的书刊、影片、录像、图片等,但是将有关人体生理、医学知识的科学著作和包含有色情内容的有艺术价值的文学、艺术作品排除在淫秽物品范围之外。

5、展现血腥、惊悚、残忍等致人身心不适的信息内容。一些网络内容制作者为了骗取用户的点击量,发布和展示血腥、惊悚、残忍的图片和视频,如有的网站发布大量令人不适的惊悚、血腥、虐杀动物、畸形胎儿的图片,同时还兼有“标题党”嫌疑,致人身心感到极大地不适,尤其是对未成年的心理损害极其严重。

6、煽动人群歧视、地域歧视等的信息内容。煽动是指怂恿、鼓动人做坏事的行为,我们经常在网上看到,一些人仅凭自己看到的只言片语就在网上传播并发布地域歧视和人群歧视等过激言论。如有一则“医院多次医疗事故不能给公众解释”的网络帖子,煽动当地人群对医生群体的歧视,该发布者因涉嫌寻衅滋事被公安机关行政拘留10日。

7、宣扬低俗、庸俗、媚俗内容的信息内容。主要是两类信息内容,一是低俗的内容,主要是指低级趣味、庸俗,使人萎靡、颓废的内容;二是媚俗的信息内容,主要是那些迎合于世俗,缺乏自我思想、自我理智,只知随波逐流等,这些低俗、庸俗、媚俗的信息内容与我国优秀道德文化和时代精神格格不入,必须坚决抵制。

8、可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等的信息内容。当前,我国未成年人网民数量近1.7亿,智能手机成为未成年人上网的主要工具,未成年人正处于青春躁动期,有很强的求知欲望,他们对网络发布的一些不安全和违反公德的信息内容鉴别力很弱、自控能力较差,很容易在模仿后导致恶性事件的发生,未成年人模仿网络不良行为已经成为威胁青少年网络安全的主要因素。

三大管理相对人的共同禁止性行为

《治理规定》要求网络信息内容服务使用者、网络信息内容生产者和网络信息内容服务平台共同营造良好网络生态,不得实施以下禁止性规定。

1、不得利用网络和相关信息技术实施侮辱、诽谤、威胁、散布谣言以及侵犯他人隐私等违法行为,损害他人合法权。行为人利用网络和相关信息技术实施侮辱、诽谤、威胁、散布谣言以及侵犯他人隐私,是严重的侵权行为,这不仅涉及网络信息内容生产者,也涉及网络信息内容服务使用者和网络信息内容服务平台。

根据《侵权责任法》的规定,网络用户利用网络服务实施侵权行为的,被侵权人有权通知网络服务提供者采取删除、屏蔽、断开链接等必要措施。网络服务提供者接到通知后未及时采取必要措施的,对损害的扩大部分与该网络用户承担连带责任。如果网络服务提供者知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任。

2、不得通过发布、删除信息以及其他干预信息呈现的手段侵害他人合法权益或者谋取非法利益。笔者认为,应当重点治理网络信息内容服务平台为了谋取不正当利益通过发布、转载、删除信息以及干预信息内容呈现或搜索结果等违法行为。

3、不得利用深度学习、虚拟现实等新技术新应用从事法律、行政法规禁止的活动。AI的深度学习在搜索技术、数据挖掘、机器学习、机器翻译、自然语言处理、多媒体学习等领域应用广泛;虚拟现实(VR)是一种灵境技术,其基本实现方式是计算机模拟虚拟环境从而给人以环境沉浸感。无论是深度学习,还是VR技术均与信息内容有直接关联,利用这些技术应当遵守法律法规,遵循公序良俗,不得损害国家利益、公共利益和他人合法权益。

4、不得通过人工方式或者技术手段实施流量造假、流量劫持以及虚假注册账号、非法交易账号、操纵用户账号等行为,破坏网络生态秩序。

近年来,App刷量、电商刷单、公号刷阅读量等网络的黑色产业屡遭曝光,一些互联网应用平台通过技术手段篡改、诱导等违规方式将他人的用户导向自己的产品或服务,实施流量劫持,获取不正当商业利益的行为。笔者注意到,很多网络违法和黑色交易,都与虚假注册账号、非法交易账号、操纵用户账号等行为有关联,这已经形成黑色产业链,通过虚假注册账号、非法交易账号、操纵用户账号,能获得大量账号资源,为不法行为提供网络身份,以此隐蔽真实身份,制造虚假流量,增加溯源难度,逃避法律追究。

5、不得利用党旗、党徽、国旗、国徽、国歌等代表党和国家形象的标识及内容,或者借国家重大活动、重大纪念日和国家机关及其工作人员名义等,违法违规开展网络商业营销活动。

中国共产党的党徽党旗是中国共产党的象征和标志,根据《中国共产党党章》的规定,党的各级组织和每一个党员都要维护党徽党旗的尊严,要按照规定制作和使用党徽党旗;国徽和国歌是《宪法》规定的国家形象标识和内容,任何商业组织都不得用于商业营销活动。

网络信息内容生态治理的监督机制

《治理规定》要求各级网信部门会同有关主管部门,建立健全信息共享、会商通报、联合执法、案件督办、信息公开等工作机制,协同开展网络信息内容生态治理工作。事实上,我国网络信息内容治理的监管不仅仅是网信部门的职责,应当全面把握网络综合治理体系的各个要素和环节,增强协同体系监管的顶层设计。

对网络信息内容的监管,重点是对网络信息内容服务平台履行信息内容管理主体责任情况的监管,特别是要针对自媒体的无序和乱象,平台企业负有不可推卸的责任。应当指出,信息内容平台企业不仅是自媒体运营的服务提供者,也是自媒体行业秩序的维护者,必须履行好责任义务,依法运营,严格履行信息内容管理的主体责任。

《治理规定》要求,各级网信部门建立网络信息内容服务平台违法违规行为台账管理制度,并依法依规进行相应处理。笔者认为,网络信息内容服务平台违法违规行为台账管理制度,是对平台企业的一项重要管理制度,反映和记载了平台内各类信息内容违法违规的行为和内容以及分布区域和数量的动态情况等,为网络主管机构实施信息内容监管提供了有力的事实和证据。

整体上看,《治理规定》体现了国家在网络信息内容生态治理领域的主权价值取向,展示了网络空间的自由和秩序、开放和自主、管理和服务的辩证关系,重点突出了网络信息内容生态治理的统筹与协调,随着《治理规定》的正式实施,我国网络信息内容的生态治理将正式纳入法治轨道,并将依法形成治理合力。

视频结构化技术持续发展,将促使一大波产业消失或者转型

视频结构化是通过计算机算法对AI摄像机采集的高清视频进行内容识别,使得可以从视频画面中获得人、物等的各种属性。

随着视频结构化技术的持续发展,智能摄像机能够识别的东西越来越多,准确率越来越高。众多的智能应用场景被开发出来。这也就意味着被涉及的一大波产业即将消失或者转型。目前:比较主流的智能应用场景有如下几个:

一、人脸识别

人脸识别就是AI智能摄像机对人像进行自动识别,结合人的身份信息,可以将视频识别出的人脸信息和身份库中的人脸信息进行比对,以达到身份认证授权的功能。

在政府的公共区域的视频监控中,也正在全面引入这项技术,违法犯罪人员只要出现在镜头下,就会无所遁形。真因为如此强大的智能功能,传统治安监控摄像头也正在逐步升级改造,变成智能高清摄像头。在交通电警卡口监控中加入人脸识别,那么车辆违章将可能和车主身份绑定,以后,代扣分的行业也即将消失。在人脸识别的基础上,通过大量的摄像头可以实现区域计算人流密度,预防踩踏事件发生。在支付领域,现在各大移动支付企业都在积极推进刷脸支付。以取代过去的手机二维码、信用卡等支付。这技术也就使得传统的门禁、传统的支付方式受到挑战,将慢慢消亡或转型。

二、步态识别

步态识别是AI智能摄像机对人行走的姿态进行自动识别,并经过大数据不断深入学习,形成每个人独有的步态特征。就算通过带头套或者整容骗过了摄像机,行走姿态习惯就很难骗过摄像机了。

步态识别,主要还是应用在政府公共区域监控,可以对人脸识别的补充。

这技术进一步完善了人脸识别,加速了传统摄像头产业的转型升级。

三、物体识别

如今的AI智能摄像机除了对人脸、步态识别,还可以识别各种物体的形状、颜色等等属性。比如人们常常带的包、眼镜、雨伞等,都能够自动识别出来。这对人物识别的有一个有力补充。

四、车牌、车型识别

AI智能摄像机除了对人识别,在对车的领域也有很好的应用。车牌识别已经很成熟了,现在已经扩展到可以对车的外形、颜色进行识别。可以更加有效的防止假套牌车,结合对驾驶员的人脸识别,可以很好的做到人车一致。

这技术也使得交警视频监控的大升级。目前,各地交警都陆续在做智能交通二期的建设改造。

五、集装箱识别

对于货运、物流的集装箱,AI智能摄像机也是有很好的应用。它可以智能识别集装箱号,集装箱损坏等等。为无人码头做了很好的技术储备。目前无人码头也是各大码头正在陆续改造的趋势。传统的码头信息产业也正在转型升级

六、行为识别

行为识别,可以对特定的区域,特定人群的行为进行分析识别。比如:聚众斗殴、单人滞留、攀高、可疑滞留物、疲劳驾驶、驾驶接打电话等等进行检测。这在司法监狱等监管场所有很好的应用。司法监狱也正在升级到智慧型的监管场所。同时在交警行业检测司机的行为也是有很好的应用。可以补充以往靠人工才能识别的行为。

综述

通过以上主要应用的分析,目前已经实现如此多的变化。随着视频结构化的技术持续发展,将会带来更大的变化,吸引更多人投身到其中去。而传统的一些产业也将会被慢慢替代消亡或转型升级。

小区测温容易起冲突,或许有理论依据?

读书这事,不能陷于凭空玄想,更需让一点灵光出入于翰墨与现实之间,以为验证。

试举一例。一个多月来,疫情防控是头等大事。但无论怎样日宣月讲,总有些人不当回事——不说那些严重的、妨害疫情防控的违法犯罪行为,就说进行封闭式管理的小区,有多少居民认为登记是无故刁难,测温是多此一举?有时呛呛急了,人家就甩出一句“我就住这,你凭什么管我”,细细咂摸,这话还真不全是无理取闹。不过,再往深想,这种小摩擦背后争的真是法权问题吗?冲突的核心,也许在于“支配关系”。

什么是支配

前一段有幸翻了一本小书,美国社会学家罗杰•古尔德撰写的《意愿的冲撞:社会等级的歧义如何孕育冲突》。这本书从一个问题出发:更密切的关系,为什么会比相对疏远些的关系有更大可能产生冲突?在古尔德看来,这并非由于密切关系导致更多接触,从而为冲突提供了更庞大的社交基数,而是缘于模糊不清的“支配”问题。

什么是支配?在社会学里,支配是一个含混却重要的概念。韦伯对支配做了最经典的研究,他给出的支配定义也最具有典型性:支配是一种关系,“支配者所明示的意志乃是要用来影响他人的行动,而且实际上对被支配者的行动的确也产生了具有重要社会性意义的影响——被支配者就像把命令的内容当成了自己行动的准则”。

支配绝非“权力”一词的同义反复。它可以在酒会、演说厅、教室中上演。而支配者的地位通常并非来自上位规范授权,更常来源于经济地位、能力优势乃至社交关系。我们不妨想一想,上一次参加小组讨论时谁获得了主导位置,原因是什么?

冲突的发生

言归正传。在对冲突的发生进行解读时,古尔德使用了一组关键性概念工具,即对称关系和非对称关系。简单说,如果将社交中双方之间的角色称谓互换,对关系本身不会发生颠覆性影响,就是对称关系,比如朋友、同学和同事。在这些关系中的个体与其他人互为朋友、同学和同事。反之,父子、师生、领导与下属,就是典型的存在等级的非对称关系。

非对称关系为当事人赋予了特定的社会角色,换句话说,一旦身份确定了,支配关系也就自然产生了——我们都觉得应该听师长、听领导的。而在对称关系中,社会角色的理想型并不能为支配关系的界定提供支持。比如我们说朋友要宽容,同学要友爱,同事应互谅互助。这话当然不错,但它说的是应当通过退让避免或消弭冲突,并未给支配结构留出空间。

这有什么问题吗?当然有。比如朋友之间约饭。除了谁买单之外,重要事项就是时间、地点、吃什么。这些问题通常可以通过协商解决,但在有些时候,尤其在参与者众多的时候,则往往需要单方面的决断。决断实际上就是一时的支配,这就不能被“朋友”这个角色容纳。所以,如果一位朋友很认真地说“我说了算”,就可能引起尴尬,因为他诉诸了对称关系无法提供的支配,尽管是一种很弱的支配。如果“他说了算”成了习惯,健康的友谊就有动摇的危险。

社区防疫的摩擦

古尔德的理论,为社区防疫的摩擦提供了新的解释方法。虽然并不能做到严丝合缝,但测温登记时双方间的关系更类似于一种对称关系。在检查者使用请求性的语句时,被检者会认为这与他们间的社会关系相符——当然,这不意味着他一定会配合,因为对称关系暗示了他可随心行事。但是如果检查者试图施加命令,那么他就是在假定自己拥有非对称关系之下的支配地位。此时,被检者要么承认并服从,要么就决绝并抗拒。

更重要的是,承认会导致关系定型,也就是说在日后的交往中,双方更可能按照先例行事。无怪乎有些被检者表现得如此不情愿,因为在他们眼中,一次服从可能代表着长期的“低人一等”。有没有既配合又不至于将自己放在被支配者的办法呢?有,比如有的被检者试图凸显双方之间的熟悉程度,有的则使用戏谑打趣的语气,这些都是在进行合作时提醒对方,尽管你负有某种职责,但我们之间仍是对称关系。这不是本文核心,点到为止。

在笔者看来,《意愿的冲撞》的最后一点启示,是阅读的真正价值不在于了解一种理论,掌握一种知识,更在于打破局限。对于专业者来说,往往知道得越多,看到得越少。作为法律人,我们看事多从规范出发,有时就忽视了角色和关系。如其所是地看到这多彩的世界,用不同的工具将复杂的现实抽丝剥茧,也许是每位学人必务的命题。

测温枪就是个笑话

疫情以来,各个小区,关卡,都是登记测体温,大家都知道,测温枪怎么测的温度不是高就是低呢,没一点准确度,到底靠不靠谱?

大家在开车回家时,小区门口测的温度一般都高,但下车等会就没事了。本人就遇到过,三个测温枪测出三个温度,,这是假冒产品吗?可想而知,全国都是这样,怎么能把防控做好呢,一但有发烧感染者,那不是放虎归山,后患无穷了吗?

感觉还是水银体温计最准,但就是慢。一个快,不准,一个准,但慢,真不知还有什么好办法?

《人工智能助力新冠疫情防控调研报告》发布 AI测温功劳不少

新冠肺炎疫情发生以来,人工智能技术在疫情监测分析、人员物资管控、医疗救治、药品研发、后勤保障、复工复产等方面充分发挥作用。近日,中国信通院等单位发起的人工智能产业发展联盟发布了《人工智能助力新冠疫情防控调研报告》(简称《报告》)。通过梳理基于“人工智能支撑新冠肺炎疫情防控信息平台”收集的500余个人工智能抗疫案例,分析了人工智能在助力疫情防控中的应用情况,报告指出智能服务机器人、大数据分析系统和智能识别(温测)产品数量居前三,计算机视觉、智能语音、大数据等人工智能技术成熟度相对较高,面向使用场景丰富,因此其代表产品在抗击疫情中也发挥了极大作用。

根据中国人工智能产业联盟智能外呼机器人的首轮评测统计的参评产品截至 2 月 7 日的呼叫情况,其中,54%的产品总呼叫量为百万级,15%的产品总呼叫量达千万级,38%的产品日呼叫量达到万级,31%的产品日呼叫量达十万级。智能外呼机器人提高了筛查效率,减轻了基层工作者压力;另外,目前医疗服务场景的实体智能服务机器人的主要应用场景为清洁、消毒和配送,以替代人力完成重复性、机械性、简单的工作为主。

大数据分析系统的应用场景主要有疫情地图、人群追踪、同乘查询、趋势预测以及舆情分析。大数据分析系统面向的对象包括医院、疾控中心、政府机关、企业、社区以及群众。

智能识别(温测)产品基本实现多人同时非接触测温,并在体温异常时报警,能够在戴口罩情况下人脸识别,并对数据进行实时上云、跟踪管理。其中,智能告警和数据管理是 AI 测温系统区别于传统测温系统的两大重要功能。据中国人工智能产业联盟 AI 人体测温系统评测结果,产品在测温误差、最大测温距离和人脸抓拍准确率这方面较为出色,充分利用自身优势助力疫情防控。在测温误差方面,参评产品的误差都不超过 0.25℃;在人脸抓拍能力方面,参评产品的准确率主要保证在 90%以上;在最大测温距离能力上,因为参评产品使用场景不同,各家最大测温距离在 2~8 米之内波动,基本保障达到各自场景使用场景的需求。

《报告》分析了疫情监测分析、人员物资管控、医疗救治、药品研发、后勤保障、复工复产等六类主要应用场景中的人工智能产品在疫情防控中的应用情况及应用技术。

《报告》剖析人工智能应用发展,指出人工智能产业迎来难得的发展新机遇,给各行业的“赋能”作用日益显现,并且人工智能应用在提升国家治理能力方面的作用正在逐步凸现,人工智能已成为推动社会发展、经济发展质量变革、效率变革、动力变革的重要驱动力。除此之外,还指出数据积累不足、产品质量参差不齐、智能化程度尚有空间、基础技术积累不足是目前影响人工智能产业发展的薄弱环节。

通过上述分析,《报告》认为,要从加大政策支持和引导力量、加快人工智能新基础设施建设、加强人工智能核心技术攻关、积极培育人工智能新业态新模式、加紧构建人工智能基础数据平台、加速推进人工智能标准化体系建设六大方面推动人工智能产业持续跨越式发展。

从视觉到听觉,语音技术实现感官革命

是什么导致了我们在使用语音优先技术和屏幕优先技术时产生如此巨大的差异?基于屏幕的技术之所以让人上瘾,是因为视觉在我们感官层次中的地位。

我们先来看看是什么让移动设备从根本上分散了人们的注意力。不仅仅是屏幕的存在,事实上,许多语音设备也有屏幕,其中最重要的就是我们的手机。它是屏幕在设备的用户体验和我们作为用户的感官层次中所扮演的角色。“屏幕优先”体验,即屏幕是输入和输出的主要形式,会分散用户注意力,因为视觉输入是复杂的,而人类也不断进化为更多地从视觉中获取信息。

这是一种与生俱来的需要。人类的生存依赖于我们理解他人的能力。我们总是试图通过解读他人的情绪、举止和行为来理解动机和意图。大部分的社会感觉输入是视觉的(这也解释了为什么65%的交流是非语言的)。甚至从出生开始,婴儿观察和识别人脸的能力就比获取大多数其他信息要早得多。

屏幕优先设备利用了这种条件反射,想尽办法有条不紊地把我们的注意力吸引过去。推送通知的设计目标是利用我们大脑的执行功能,尤其是“自下而上”的大脑信号,它优先于我们有意识选择关注的事情。这种反应是条件反射性的,很难克服。其结果是表面上所谓的生产力提升和多任务处理的兴起。

分散注意力会阻碍创新,而创新正是技术所追求的。事实是,大多数成年人无法应对分心这个问题。大约98%的人一次只能处理一条以上的信息。在不同的任务之间切换会消耗我们大脑40%的时间。工作效率和心理健康并不是注意力分散的唯一受害者。它还存在着更大的危害。

这种大脑的削弱对我们作为创造者,也就是我们复杂的创造过程有着深远的影响。伟大的思考来自于让我们自己沉浸在信息和刺激中,然后有意识地从这些信息和刺激中抽身而退,给大脑时间去思考和建立那些需要的联系。这就是为什么我们一些最好的想法会在半夜出现。然而,为了做到这一点,信息必须被“保存到”我们大脑中。

从视觉到听觉,语音技术实现感官革命

任务转换会阻碍我们处理和保存信息的方式,不可避免地会阻碍大脑建立深层联系的能力。想想看:那些曾经远离科技来建立这些联系的时刻)比如遛狗、排队、上厕所等),现在常常被智能手机或其他屏幕设备占据。具有讽刺意味的是,技术正威胁着推动它自身发展的东西——创新。

那么语音在这一切中属于哪一部分呢?就其本质而言,语音技术提供了一个强大的机会,可以改变我们与技术之间支离破碎的关系。在英语中,说的速度是打字的三倍。向语音助理提问要比输入搜索栏查询快得多。这被广泛认为是语音的杀手级应用场景之一。许多公司已经在利用这一优势为运营和员工带来口头输入的高效体验。

证明语音更有效率的另一半原因是我们的听觉。我们的听觉反应也更快,它的反应时间比视觉反应时间快4倍,这意味着我们用耳朵处理信息的速度比用眼睛快得多。因此,语音的输入和输出都更快。在使用语音时,我们不仅可以更快地处理信息,还可以降低新信息竞争我们的注意力并存储到大脑记忆中的风险。

这并不是说语音和语音引导的体验不能吸引人。让我们看一个简单的例子,比如,阅读或听一个故事。当视觉形象不是我们关注的焦点时,我们就会在脑海中创造和想象人物和故事。我们的大脑负责翻译和解释词语,以及词语背后的含义。我们创造了自己的心灵影院。播客和翻页器可以通过释放我们的想象力的方式,强有力地捕捉和维持我们的注意力,而不需要移动像素来引起视觉上的吸引。吸引人不一定意味着上瘾。

语音技术有潜力通过将我们与所有技术的关系推向后台,从而改变和加强我们与这些技术的关系。

它不是一个闪亮的新物体或设备,而是一个基础设施。它将让我们更好地控制我们与技术打交道以及合理使用我们宝贵的认知资源。想象一下使用语音计算通勤的工作效率吧。语音技术还能重新点燃朋友和家人之间持续的、面对面的亲密关系。当我们把意识的重心从视觉转移到听觉,并给自己时间去自由和不受阻碍地思考时,所有这些思考的结果都会浮出水面。

如果我们的工作方向是对的,语音技术将成为催化剂,让世界更智能,而不是让我们更笨。它能让技术隐形,同时推动人类联系向前发展。我们还有很长的路要走。但这是一种我们都可以支持的愿景。