收藏
回答

安卓 wx.createInferenceSession 报错

框架类型 问题类型 API/组件名称 终端类型 微信版本 基础库版本
小程序 Bug wx.createInferenceSession 微信安卓客户端 8.0.50 3.5.4 、3.5.6

引入人脸识别模型时报错,真机调试时,IOS 加载没问题,安卓报错

报错信息

SystemError (appServiceSDKScriptError)

Cannot read properties of undefined (reading 'CreateAsync')

TypeError: Cannot read properties of undefined (reading 'CreateAsync')

at new ov (WAServiceMainContext.js:1:771212)

at Object.Jb (WAServiceMainContext.js:1:810165)

at I (WAServiceMainContext.js:1:951470)

at Object.p (WAServiceMainContext.js:1:953587)

at I.forEach.v.<computed> (WAServiceMainContext.js:1:951107)

at p (WAServiceMainContext.js:1:167370)

at Object.success (WAServiceMainContext.js:1:167813)

at a (WAServiceMainContext.js:1:668807)

at Yu (WAServiceMainContext.js:1:668990)

at rd (WAServiceMainContext.js:1:670124)

回答关注问题邀请回答
收藏

4 个回答

  • 小程序AI推理官方
    小程序AI推理官方
    09-14

    你好,很抱歉造成不好的使用体验。

    这种情况是安卓设备上没有检测到用于AI推理的so库,可能是下发延迟造成,可以等待一段时间看是否可以解决问题,或者尝试清除缓存,杀死进程重启微信尝试。

    更加完善的解决方案我们会在后续版本中更新。

    09-14
    有用
    回复 2
    • 阿白
      阿白
      09-20
      请问有具体时间规划吗?
      09-20
      回复
    • Surrey00
      Surrey00
      10-11
      请问有具体时间规划吗?
      10-11
      回复
  • Surrey00
    Surrey00
    09-12

    我这边也有遇到相同问题,微信版本8.0.49正常,8.0.50就有这error,麻烦官方看一下

    09-12
    有用 1
    回复
  • 谢宇翔
    谢宇翔
    10-12

    你好,我现在有个 torch定义的模型,利用 torch.onnx.export 方法导出为 onnx 模型,但是在用Taro.createInferenceSession 加载模型时会报如下的错误:

    createInferenceSession:fail create session fail : xnet error:6: Failed to convert ONNX model to XNet modelFailed to convet onnx to xnet

    我定位到,在经过了 x = torch.cat((a, b), dim=1) 该层之后,模型就加载失败,若不经过该层,模型就能正常的被加载,a.shape==(1, 96, 10, 10) b.shape==(1, 160,10,10), 这个的原因是什么呢

    ps: torch模型和onnx模型都能正常预测,模型中的所有算子在官方文档中都显示支持


    10-12
    有用
    回复
  • °ー°
    °ー°
    09-11

    demo 地址 https://github.com/MultiChen/liveness-miniprogram?tab=readme-ov-file

    09-11
    有用
    回复
登录 后发表内容