如下几张图片在调用security.imgSecCheck的时候被判定含有违规内容。有没有什么反馈机制或者其它机制,可以来让检测更准确一些?还有,具体什么算违规,能否在文档里说明一下,比如图片3里面,是不是因为有两个人靠在了一起?不然真的没法跟用户解释。
图片1:
图片2:
图片3:
发现并不是图片本身的问题,可能是微信云函数执行环境不一致导致的:https://developers.weixin.qq.com/community/develop/doc/0002eeb22e8cd8a3b9591f6f151400?fromCreate=0
返回的信息是什么?
后来排查是因为云函数抛了异常,异常我会当成图片违规。至于为什么抛异常,我觉得是云函数执行环境不一致导致的问题,另行发帖反馈了,请看一下这个帖子:
https://developers.weixin.qq.com/community/develop/doc/0002eeb22e8cd8a3b9591f6f151400?fromCreate=0
这个帖子没删,是想了解一下内容安全接口有没有什么机制,用来解决智能检测结果和实际预期不一致的问题。比如像阿里云内容检测会有“样本反馈”这样的机制:
https://help.aliyun.com/document_detail/96565.html?spm=a2c4g.11186623.6.569.7cbf25cfRyHbhl
太黄了,改成橘红色