近期绝大部分小程序收到内容安全能力警告通知如下
官方回复一般为:
开发者你好,近期平台收到较多投诉及通报,反馈部分小程序未做好内容审核,存在安全隐患。为完善小程序内容安全生态,近日平台给部分类目陆续下发了相关的隐患提醒,请开发者结合自己实际情况,如未完善内容审核措施的,请尽快完善,可接入平台提供的内容安全接口或其他内容安全能力;如已有相关内容审核措施,请继续加强内容审核力度,做好内容安全掌控。这里并不强制必须要接入微信官方提供的安全接口。
不少开发者认为仅仅接入内容安全API就足够了吗?
其实微信官方提供的内容安全接口并不是万能的,也可能存在错报或不能正确识别的情况,特别是图片安全接口,违法违规信息可以任意展示,同时微信官方也没有强制必须要求接入微信官方提供的安全接口,
> 官方内容传播控制策略建议(摘自:珊瑚内容安全用手[小程序])
1、用户发布内容在未经审核前,建议限制内容传播范围,包括限制转发、访问,或不得在搜索结果中曝光。
2、运营者可根据文字、图片等鉴别能力的检测返回结果,自行对存在风险的内容及时删除、拦截处理。
3、对达到一定访问量或短时间转发次数异常的内容,建议运营者安排人工进行二次审核,及时发现有害内容。
4、对于恶意发布有害内容的用户账号,运营者可作限制使用、封停等处置,从账号维度强化内容管理。
5、对于封停账号,运营者可采取策略限制恶意用户再次使用产品。
所以仅仅接入内容安全API仍然是有相当一部分小程序被下架,但又不知道如何整改
根据我们自己的审核经验,总结了如下解决方法,
接入内容安全API
用户自行发布内容,需先经过内容安全API检测,此时无论通过与否,均不可展示给发布内容的用户及其他用户
再次进行人工审核
通过内容安全API检测后,因为内容安全API并不是能过滤所有有害信息,所以需要再次进行人工审核,审核无误后进行信息展示
说起来很简单,就是加上人工审核这一个环节,并在小程序代码上传时的项目备注里加上:已接入内容安全API,并有人工审核机制
有人可能会说人工审核这样的话效率不是大打折扣了吗?但我认为在大环境下这种牺牲是值得的,希望能帮助到大家
钱没赚到,还要加上人工审核成本?这不是一棍子打死一大片?怎么经济放缓,体制成本反而越高呢?
人工审核适用内容发布类小程序,而对于图片识别工具类的 小程序不适合。不可能做一下图片识别,还要等人工审核了给人返回结果。
人工审核的意思就是,小程序的用户发布内容后,你们在自己的项目后台再次审核。(开发者自然懂什么意思)
太严格了,既然官方所谓的安全接口没软用(全是bug,各种黄图检测都返回ok),就别让接入了,这不是不拿开发者的时间当时间吗,鹅厂真是没有底线了
一定要加入人工审核吗?应该怎么加呢
这个内容检查的api没任何卵用。啥都返回OK
我也想在程序中加入人工审核环节,请问如何加入人工审核的环节呢?