短视频内容审核:平台展示“萌宠”,非法交易野生动物

近日,国内野生动物保护组织美境自然(BRC)发布《短视频社交媒体上的野生动物贸易》,以11种保护野生动物为对象,在各种短视频平台上对相关内容进行了为期一个月的调查。

打着“萌宠照”的幌子,短视频平台正在成为非法买卖野生动物的新平台。一只只看着可爱的野生动物,它们面临着被交易的事实,等待它们的可能是被圈养甚至不当饲养后的死亡。短视频平台为野保动物交易站台,助纣为虐实属不该。

调查所涉及的国内三大头部短视频平台中哔哩哔哩和抖音两家暂没有明确的野生动物保护政策,即使建立了政策明确的快手平台,也没有履行检查和核对的义务,高达77%的视频仍有评论询问如何购买。有一个国家《野生动物保护法》对野生动物的保护有具体的等级。早就明确规定严禁保护禁止交易的野生动物,但仍然在网上明目张胆的出售,明目张胆的违法。面对短视频平台的“触雷”,野生动物保护部门应该毫不留情地予以打击。

那么,短视频平台应该如何加强审核,从而维护平台本身的利益呢?

这就要求媒体行业从多种方面提高视频审核效率,具体来说:

一、针对敏感词去进行监控

敏感词的监控机制不仅监控发布的内容,还监控评论。一旦内容监控到敏感词拒绝直接发送,评论区监控到敏感词满足一定的审查要求,需要对视频进行审查,并将敏感评论的用户记录到“嫌疑人关押处”。

二、建立健全对视频发布者的认证与审查机制

为了维护良好的网络环境,短视频平台应建立视频发布者认证机制,建立发布低俗、敏感、色情相关信息的用户黑名单,采取加强审核、禁止视频发布等措施,完善用户审核机制,避免使用新账号继续发布非法视频。

三、视频评分机制

视频评分机制有两种类型。一个是连续优秀视频发布商发布的视频系统自动通过审核。这个优秀的标准是非常严格的,比如毫无污点,达到一定数量的喜欢、评论和关注。只有这样才能评为优秀;还有手动评分机制。评分标准将非法内容的直接删除反馈给发布者,记录用户数据、操作者、原因、时间,以便每次审核都可以追溯。同时也可以用来统计App里发的是什么类型的视频,用于年度总结和反思。

四、员工考核机制

员工考核机制包括每日完成率、审批通过率、单位平均视频审核时间等。其目的是防止员工偷懒,而不是严格审核,奖励优秀员工。

科技可以为媒体创造更多的发展空间和盈利模式。作为一个新媒体平台,不要忘记相关短视频运营商首先要履行法律赋予的义务。短视频平台不能为赌博、吸毒等非法活动以及非法野生动物贸易提供舞台。加强审核,遵守规则,维护平台利益,为网民创造健康安全的环境。

APP内容审核:步步高家教机多次涉黄内容审核该如何去做?

步步高家教机最近被推到了舆论的前沿,因为其应用商店中的“小肚皮”应用包含不适合未成年人观看的内容。

据悉,该软件具有职业换装、“圈子”社区、“小窝”、“游乐园”等功能,而其中的“处关系“交友。也被批评为低俗和不适合未成年人。

甚至还有诱导自拍,‘按要求充值VIP’,“躺床上拍,伸直,从大腿跟拍到脚指头“等内容。这都是被控诱导猥亵未成年人,影响是可怕的。

数起涉黄的事件许多父母担心。毕竟学习机的用户主要是未成年人,很难区分信息的好坏。对于孩子来说,这样的信息无疑是非常危险的。

而新闻里的事件,绝不是个例也不是偶然。虽然每次步步高都有回应,但这不是它的错,主要是因为第三方软件的内容有问题,而且已经被它自己审核过了。但审核不严难道就没有错吗?

事实上,步步高的审核不严,放松管理与其产品中不断出现的此类问题密切相关。步步高应该如何去做好内容审核呢?

一、审核方法包括机器审核和人工审核

机器审计解决批量问题,人工审计解决其他问题。所有平台都成立了人工审核小组。机器审计只适用于具有明显特征和公众共识的违规行为,也可以作为人工审计的辅助判断工具。

二、通过社交媒体宣传自己

抓住微博,微信等社交媒体兴起和广泛使用的机会。积极扩大宣传口号。您可以通过这些社交平台将您的思想,观念和精神传递给社会。在这个过程中,沟通的内容非常重要。步步高家教机作为儿童教育的辅助软件,必须使用多种渠道来促进正能量。

三、充分利用舆论监督系统

通过舆情监测系统,可以监测和检查信息发布者,舆论发生的时间和发展以及敏感词的出现,并可以预先制定舆论应对计划。当舆情监测系统在软件上检测到不良信息时,它将立即做出响应。积极回应并不是为了避免问题,而是要对问题及其将来的解决方案做出合理的解释。积极消息将在处理后积极传播。

在为青少年创造安全学习方面,步步高还有很长的路要走。因此,要想在竞争中获得一席之地,不被淘汰,步步高家教机不仅要大力发展人工智能技术,做好产品研发,还要为这些“小用户”的成长承担更大的责任。

对于步步高家教机,在当前时代,要获得更多的资源,要更好地操作它并不容易。面对互联网上的负面舆论,如何避免它也是长期运行的必要条件。只有通过各种监测避免滋生负面舆论,我们才能保持自己的良好形象。对于整个行业来说,只有基于人工智能技术,保证用户的信息安全,认真做产品,而不是为了赚钱去做损害企业形象和社会利益的事情,才能更长远的发展。步步高的这个事件值得整个行业引以为戒,反思自己,努力前进。

猫途鹰APP被国家网信办下架 官博称内容审核出现漏洞

12月8日,国家网信办发布消息称,自11月5日起组织开展移动应用程序信息内容乱象专项整治,首批清理下架猫途鹰等105款违法违规移动应用程序。对此,猫途鹰官方微博回复称,内容审核出现了一些漏洞,公司下架进行修整。

据了解,此次国家网信办下架违法违规移动应用程序,是针对网民反映强烈的部分移动应用程序传播淫秽色情、暴恐血腥等违法违规信息,提供诈骗赌博、招嫖卖淫等违法违规服务的网络乱象。而猫途鹰则成为首批清理下架的违法违规移动应用程序。北京商报记者发现,有网友在猫途鹰官方微博下留言询问下架一事。随后,猫途鹰官博回复称“global这边内容审核出现了一些漏洞,我们下架进行修整和再审核。”

公开信息显示,TripAdvisor猫途鹰app除了提供全球旅游酒店订票,以及全球旅行者的点评建议外,还涉及旅行规划和酒店、景点、餐厅预订等功能。上述下架信息发布后,北京商报记者尝试在安卓应用商店、苹果应用商店中搜寻该软件,已无法找到相关信息。

来源:北京商报

最严直播审核管理规定来了:主播须实名 未成年人禁“打赏”

直播打赏必须实名认证、未成年人不能打赏、打赏资金须设置延迟到账“冷静期”……近日,国家广电总局、市场监管总局接连发布直播平台及电商直播监管新规,直播乱象迎来强监管。那么,“最严新规”严在哪里?我们一起来了解。

规定一:严禁未成年人打赏。

“打赏”是直播平台盈利的重要方式之一,但未成年人自控力和辨别力较差,极易被光怪陆离的网络直播所吸引进而作出不当行为。

即将出台的《直播行业打赏行为管理规则》等通知明确,网络秀场直播平台要对“打赏”用户实行实名制管理。未实名制注册的用户不能打赏,未成年用户不能打赏。要通过实名验证、人脸识别、人工审核等措施,确保实名制要求落到实处,封禁未成年用户的打赏功能。

有专家表示,确保政策落实到位,防止“上有政策,下有对策”,一方面要全面推行“注册实名认证+支付前二次识别”的双认证系统,只有注册用户信息和二次识别信息相匹配才能打赏。同时,有必要通过责任划分倒逼企业落实相关政策。比如发生相关纠纷时,直播平台如果不能证明自己充分履行了相关审查义务和职责,就应无条件退还相关款项。

规定二:直播带货的商家和个人须实名认证。

国家广电总局发布的《关于加强网络秀场直播和电商直播管理的通知》要求,网络电商直播平台要对开设直播带货的商家和个人进行相关资质审查和实名认证,完整保存审查和认证记录,不得为无资质、无实名、冒名登记的商家或个人开通直播带货服务。

此外,要积极探索利用大数据、人工智能等新技术服务于鼓励倡导的直播节目,让算法支撑优质视听内容的推送,对违规不良内容实现精准预警和及时阻断。

直播带货作为一种新兴的电商营销模式,兴盛与乱象并存,乱象主要包括以低价吸引顾客和观众,推销假冒伪劣商品。出台相应的法规,促使平台对于带货的短视频或者直播做好相应审核,可以有效保障消费者权益,使行业健康发展。

规定三:将屡教不改的主播纳入黑名单,不允许更换“马甲”再度开播。

对于直播内容问题性质严重、屡教不改的主播,《通知》要求,网络秀场直播平台要建立直播间和主播的业务评分档案,细化节目质量评分和违规评分等级,并将评分与推荐推广挂钩。要做好主播尤其是头部主播政策法律法规和相关知识培训。对于多次出现问题的直播间和主播,应采取停止推荐、限制时长、排序沉底、限期整改等处理措施。对于问题性质严重、屡教不改的,关闭直播间,将相关主播纳入黑名单并向广播电视主管部门报告,不允许其更换“马甲”或更换平台后再度开播。

中国消费者协会消费监督部主任张德志认为,这一规定将直播带货监管提到核心位置,明确直播平台和主播等相关主体责任,规范直播带货行为,违法直播查处方式更加明确,不仅有利于网络直播平台的良性运行和维护,也有利于更好的保护消费者合法权益。

下一步,需要从法律和道德层面夯实平台责任,平台需要强化技术手段限制直播中的违规行为。此外,要加强行业组织自律,同时建立第三方监督、投诉机制,多部门联手,在法律、行政监管之上形成一整套社会制约机制,营造行业健康生态。

来源:中国政策研究网

谷歌收紧内部留言板规则:加强内容审核

据报道,谷歌内部文件显示,由于员工的讨论越来越激烈,因此该公司要求更加积极地审核内部留言板的内容。

谷歌内部社区管理团队表示,其内部留言板上被标记为种族主义和辱骂性信息的内容越来越多。该团队认为,这是因为员工在家工作期间分享了更多信息,以及“艰难的全球对话”增加所致。

因此,该公司从2019年开始扩大内容审核试点,共覆盖多个平台的超过75个讨论组,还要求多数讨论组的负责人扮演审核员的角色,并完成审核培训。此外还要制定章程来定义小组目的,在保证内容符合章程的情况下确保小组对话的包容性。

谷歌内部社区管理团队在内部博客中表示,正是因为当今世界出现各种复杂局面,因此才亟需确保工作场所成为一个受人欢迎的地方。

网信办:未成年人网课平台需抓好内容审核,杜绝游戏广告等

据网信中国消息,近日,中央网信办、教育部联合印发《关于进一步加强涉未成年人网课平台规范管理的通知》,推动未成年人网课平台长远规范发展。

《通知》提出,要强化日常监管,督促涉未成年人网课平台以正确价值导向为引领,加强网课教学大纲和图文、视频授课内容等审核把关,将弹窗、边栏、悬浮框、信息流加载、互动社交等环节纳入重点管理范畴。

另外,各地网信部门要紧盯属地涉未成年人网课平台页面周边生态,将弹窗、边栏、悬浮框、信息流加载等环节纳入重点管理范畴,对互动社交版块加强巡查监看,严防网课周边出现网络游戏广告以及色情低俗、暴力血腥等不良图文信息。

全文内容如下:

各省、自治区、直辖市网信办、教育厅(教委),新疆生产建设兵团网信办、教育局:

为切实保障优质线上教育资源供给,推动涉未成年人网课平台健康有序发展,营造未成年人良好网络学习环境,现就进一步加强未成年人网课平台规范管理有关事项通知如下:

一、加强备案管理

(一)完善备案管理。各地要定期公布属地未成年人网课平台备案名单,逐步建立属地网课平台黑白名单制度。网课平台上线新应用或发生重大功能调整时,应重新提交审核并更新相关备案信息。

(二)坚决堵塞漏洞。各地网信部门会同教育部门,定期排查属地网课平台,对于应备案未备案的网课平台,由相应教育部门提出处理意见,采取暂时下线或下架、限期整改的处置措施,待整改完成后,教育部门重新审核备案。

(三)推动全面覆盖。各地网信部门要将面向中小学的非学科类网课平台纳入网络生态日常巡查监看范围,建立管理工作台账。

二、强化日常监管

(一)把好价值导向。各地网信部门要督促属地涉未成年人网课平台以正确价值导向为引领,不得传播违背社会主义核心价值观的内容,不得散布色情低俗、血腥暴力等违背公序良俗的内容,不得以“技术中立”或“算法推荐”为由,推送不适宜未成年人的信息或广告引流内容。

(二)抓好内容审核。各地教育部门要指导属地涉未成年人网课平台加强课程内容管理,对网课教学大纲和图文、视频授课内容等认真审核、严格把关。不断完善审核标准、提升审核技术,对直播课程随机抽检,对图文、视频课程二次审核。

(三)管好页面生态。各地网信部门要紧盯属地涉未成年人网课平台页面周边生态,将弹窗、边栏、悬浮框、信息流加载等环节纳入重点管理范畴,对互动社交版块加强巡查监看,严防网课周边出现网络游戏广告以及色情低俗、暴力血腥等不良图文信息。

三、提升人员素质

(一)加强授课教师资质审核。各地教育部门要依据相关规定,指导网课平台配备相对稳定的师资队伍,对相关人员资质进行严格审核,确保学科类教师具备教师资格,将遵纪守法情况、思想政治素质作为教师入职考察的重要因素。

(二)端正产品设计和运营理念。各地网信部门要指导属地涉未成年人网课平台,增强网课产品设计和运营人员未成年人保护意识,将传播知识、传播思想、传播真理放在教育学习类应用和产品开发设计首位,不得在市场运营推广时采取不适宜未成年人的手段方式。

四、注重协同治理

(一)建立日常巡查机制。各地网信部门会同教育部门,梳理属地涉未成年人网课平台重点环节、重点问题监看清单,建立技术与人工相结合、全网巡查与重点监看相结合的监测机制,定期通报巡看情况,会商研究问题线索,提出应对措施,实现常态化监管。

(二)适时开展专项治理。各地根据日常监看情况,针对一定时期内未成年人网课平台突出问题、难点问题,适时开展专项整治,集中排查处置。

(三)加大执法处罚力度。各地网信部门对侵犯未成年人权益的违法违规网课平台,按照“发现一起、处置一起”原则,依法依规采取暂停更新、关闭下架等措施,始终保持高压严打态势。对屡教不改的网课平台,一律从严从重处罚。

(四)动员社会广泛参与治理。各地网信、教育部门要积极与行业协会、社会组织以及中小学校、家长委员会等合作,定期评议涉未成年人网课平台治理成效。社会和公众可向各地网信部门举报相关违法违规线索。

各地要充分认识加强涉未成年人网课平台规范管理的重要意义,增强责任感紧迫感,将加强涉未成年人网课平台规范管理作为属地网络生态治理的重点内容,制定工作方案,健全工作机制,推动长效治理。

来源:中央网信办

音视频直播平台乱象侵害未成年人 专家建议加大内容风险审核力度

直播间低俗表演、“诱导打赏”、封禁主播借壳复出······近日,在2020音视频直播行业绿色内容生态共建峰会上,南都网络内容生态治理研究中心发布了《音视频直播平台内容痛点及治理创新报告》(以下简称《报告》)。

报告指出,音视频直播平台目前仍存在不规范现象,平台在内容监管上要思考治理创新。

自2019年12月起,南都网络内容生态治理研究中心(以下简称“研究中心”)对音视频直播行业的100余家平台展开为期一年的持续监测,剖析了行业在主播管理、内容审核、直播打赏、未成年人、内容建设五个方面存在的管理瓶颈以及行业治理现状。

经过一年多时间的监测巡查,研究中心发现主播常见违规行为可归集为四种类型:第一种是沉疴已久的直播间低俗表演、传递不良价值观等行为;第二种是主播及其经纪代理的“诱导打赏”行为;第三种是利用直播间等公开渠道售卖违规资源或者色情服务;第四种是已遭平台甚至行业封禁主播通过换马甲、换平台借壳复出,比如,注册小号、采用“变声器”以身犯险。

在内容审核方面,研究中心发现目前音视频直播审核能力参差不齐、中小平台审核力量薄弱的问题依然存在,最鲜明的表现是对举报处理的响应迟缓。

今年7月,研究中心曾对13家直播平台的举报便捷度和反馈效率进行实测,在举报部分直播间低俗内容后,12小时内有8家平台作出回应,38%的平台没有回音,部分平台虽通过私信告知用户已接收到举报,但48小时内均未给出任何后续进展消息。

《报告》指出,作为一种新型消费服务形态,直播打赏的创新与漏洞并存。

研究中心曾针对直播打赏展开调查,发现存在打赏金额上限普遍设定过高、直播间内打赏过于频繁、利用“抽奖”“竞猜”“返利”等方式涉嫌组织网络赌博等现象。比如,通过100家平台的礼物打赏额度进行梳理,发现四成平台设置单次打赏金额最高可超百万元。

未成年人打赏难退的纠纷,则暴露了平台在未成年人识别、退款机制不健全等诸多方面的短板。南都网络内容生态治理研究中心曾梳理25家平台用户协议中和未成年人相关的条款,发现仅有不足四成平台对未成年人的充值消费行为作出提示,且多为“免责条款”。

在未成年人保护方面,目前,未成年人浏览区域推荐低俗内容、适合未成年人浏览内容供给不足等现象在行业中比较常见。

今年9月,南都网络内容生态治理研究中心在调查中仍发现,有的视频网站中教育频道存在与教育无关的短视频,其中包含标题封面性暗示、传播伪成功学、情感PUA、输出低俗庸俗价值观等内容,目前,相关资源现已下架。

在对全国15个省份近2000名未成年人家长进行的问卷调查中发现,仅三成受访家长表示会开启青少年模式管理孩子浏览视频、直播的行为。

音视频直播平台如何实现内容监管的治理创新?《报告》发现,目前部分平台已通过建立信用评价体系、AI技术赋能审核、技术识别未成年人、优化青少年模式,以及算法干预内容导向等措施加强治理。

在主播管理方面,较多的是建立信用管理体系和严格的评分机制,如酷狗直播等平台采取了主播管理分级分类措施,让主播行为直接与本人信用分关联,并与公会信誉值挂钩,一旦主播违规,则公会也会被连带影响信誉值。

在审核方面,目前多数平台都采取了人机审核相结合的模式,比如自主研发AI、声纹等智能识别算法模型,用户内容一经上传,首先经过图片识别、语音识别等技术过滤,再由人工团队进行复核。

关于未成年人消费、打赏难退等问题,《报告》建议,有效识别未成年人身份,实现事前阻断是防范关键。目前,多数平台已建立起未成年人身份识别系统,通过人脸识别、用户画像、行为数据分析等多种技术手段来定位未成年用户,实施拦截。未成年人内容供给方面,多数平台通过对青少年模式的优化,实现内容的多元化、个性化输送。

数美科技运用人工智能技术进行风险识别,该公司创始人、CEO唐会军指出,当前在内容审核上人工成本高,如果平台规模大,投入成本是非常高昂的,而在语音等特殊场景下,对内容的风险识别有很大的技术难度,“很多人在一起说话,非常嘈杂,再放些背景音乐,识别起来就更有一定挑战。”

在中国信息通信研究院互联网法律研究中心研究员石月看来,平台需要在治理中发挥关键作用,加强平台文字、图片等内容监控技术,加大语音审核巡查的研发,“可能也需要政府出台一些鼓励性政策,来鼓励企业在这方面进行一些研发。”石月认为,平台还要加强提升正面、高质量内容的输出。

来源:中国青年报

YouTube用AI 内容审核代替人工审核员后,又决定返聘

YouTube 在今年初,将内容人工审核团队大量裁撤,全部替换成为 AI 进行内容审核。

所以,今年 4-6 月整个第二季度里,YouTube 线上的所有视频,都是由 AI 进行官方的内容审核。这也是 YouTube 有史以来第一次整一季度,没有人工审核员参与内容初审。

这一大步跨越,带来了不小的后果,YouTube 在近期叫停这项举措,并且大批返聘在年初解雇的人工审核团队。

AI 替换人工:下架视频数创纪录

AI 审核被叫停的重要原因之一,就是 AI 审核的规则相较于人工,更为严格,甚至会导致误伤。

根据 Google 在定期的透明度报告中提到:在 2020 年 AI 接管内容审核的 4-6 月中,共有 1100 万个视频被 AI 标记违规并下架,这些视频主要来自于美国、印度和巴西。

但是,在今年的第一季度里,被鉴定违规并下架的视频,仅仅只有 660 万。而 从人工换成 AI 之后,被下架的视频数几乎翻了一番。

因为 AI 审核遭下架的视频,占全部下架视频的 95%

(数据来源:Google 官方透明度报告)

在被 AI 下架的 1100 万个视频中,多数为色情、虚假、涉恐犯罪类型,但是也有不少是误伤。

其中,就有 32 万个被 AI 标记下架的视频提出了申诉,最后近半数都通过二次审核,并重新上线。而在过去,进行申诉的视频,只有 25% 左右可能重新上线。

YouTube 的审核 AI,以一己之力,让 YouTube 的播主们瑟瑟发抖,花更多时间自查内容,一时间怨声载道让 YouTube 头疼不已;大量的申诉,还给 YouTube 团队,增加了不少重新审核的工作量。

人工再上位:时机尚未成熟,AI 仍需努力

在年初 YouTube 裁减人工审核团队前,全职或外包的审核岗位多达 10000 个。

这些人工审核员分布在 Google 的全球办公室,或是外包供应商的各个办公点。

万人团队:巨大运营成本

人工审核员的岗位要求并不低,比如要负责中东地区的内容审核岗位,需要掌握阿拉伯语和阿拉伯方言语系,并对中东地区上传视频进行审核,以便及时标记出涉及恐怖、暴力、煽动内容的视频。

这样的工作,每周需要审核 500 小时以上的视频,初级岗位的薪水可以达到 18.5 美元/小时,年薪可达 37000 美元左右。

再资深的内容审核岗位,需要掌握一些的法律知识,不仅能得到 Google 全职员工的待遇,还可以获得近 100000 美元的年薪。

从菲律宾的青年外包工人,到湾区的风控运营,

都在内容审核中发挥着重要作用

风光的背后,Google 也同时在承担着不小的成本,这也导致了在今年疫情之际 YouTube 对人工审核岗位的裁撤。

这次返聘 YouTube 也提及:疫情让人工审核成本变高、难度加大。当初迫不得已,必须在人工干预不足和 AI 过度干预两者之中,选择了 AI。

人工审核:边缘职业身心俱疲

内容审核不是一份简单的工作,不仅每周有固定的工作指标,还要长时间面对儿童色情、暴力、恐怖类型的画面,往往也会让人身心俱疲。

《华盛顿邮报》、《财富杂志》等美国主流媒体均对内容审核员这一职业,做出过深度报道。接受采访的内容审核员,无一例外都表达了这份职业,对自己的身心健康产生了强烈的负面影响。

《财富杂志》用带着防毒面具的审核员,

比喻审核工作给人带来的心理创伤

媒体的舆论影响也敦促了科技公司对这类岗位进行了一系列的改善,比如限制每周观看不适视频的时间上限、定期的心理治疗等措施。

人工还是 AI:不用着急下定论

人工审核的支出、对人心理的伤害、机器学习的技术进步,这些都推动了近年各平台对自动化内容审核的研究和快速应用。

AI 虽然有一定的误伤几率,但是在对违规内容的审查中,的确展现了超过人工审核的高效。

YouTube 首席产品官 Neal Mohan 向英国《金融时报》回应人工审核重回岗位时,提到了一组数据「被 AI 标记删除的 1100 万个视频中,超过 50% 的视频,在没有用户播放前就被下架;超过 80% 的视频,播放 10 次以内就被下架。」

YouTube 作为大规模用 AI 代替人工的先行者,势必会踩坑,但同时也为其他公司甚至全社会,指明了人与 AI 协同关系中更加清晰的发展方向。

这样的实验虽然折腾,但着实有必要。这需要公司有吃螃蟹的精神、承担舆论非议的勇气和快速善后的决心。同样开放透明的数据,也让媒体和社会在接受未来的不确定性,有更多的共识和信心。

银川治理直播乱象 今后主播持证上岗直播内容要审核

9月17日,记者从银川市网络安全宣传周法治宣传新闻发布会上了解到,近期,针对网民反映强烈的网络直播“打赏”、吃播、低俗表演等严重冲击主流价值观突出问题,银川市委网信办、“扫黄打非”办等部门将联合开展网络直播行业专项整治和规范管理行动。

根据国家新闻出版广电总局相关要求,该市将从强化法律监管、提高行业准入门槛、组织主播进行学习等方面治理直播乱象。目前,银川市正在规范相关工作,今后将要求网络主播持证上岗、实名认证,要求直播报备,银川市委网信办将对直播主播、内容等进行审核。同时,该市将组织主播进行道德规范、法律法规学习,宣传引导主播自觉遵守道德规范和平台规则,营造良好直播环境。