小程序
小游戏
企业微信
微信支付
扫描小程序码分享
createInferenceSession:fail create session fail : xnet error:6: Failed to convert ONNX model to XNet modelFailed to convet onnx to xnet
背景:
如何获得模型转换失败的更详细原因?
什么是XNet模型?
5 个回答
加粗
标红
插入代码
插入链接
插入图片
上传视频
是否所有算子都在 ONNX 规范定义中?
你好,麻烦通过点击下方“反馈信息”按钮,提供出现问题的。
你好,我现在有个 torch定义的模型,利用 torch.onnx.export 方法导出为 onnx 模型,但是在用Taro.createInferenceSession 加载模型时会报如下的错误:
我定位到,在经过了 x = torch.cat((a, b), dim=1) 该层之后,模型就加载失败,若不经过该层,模型就能正常的被加载,a.shape==(1, 96, 10, 10) b.shape==(1, 160,10,10), 这个的原因是什么呢
ps: torch模型和onnx模型都能正常预测,模型中的所有算子在官方文档中都显示支持
问题原因是微信支持的ONNX算子有限,可以通过https://github.com/daquexian/onnx-simplifier工具优化并查看最终模型所用的算子是否在微信支持的算子列表中
所以,解决了吗?同遇到这个问题
同问这个问题。
从tensorflow.js的movenet转换到onnx的模型,加载时提示错误。
{"errMsg":"createInferenceSession:fail create session fail : xnet error:6: Failed to convert ONNX model to XNet modelFailed to convet onnx to xnet\n","errno":2004001}
初始化代码如下:
_loadModel(modelPath) { if (!modelPath) { console.error('model path is null!') } let modelFile = modelPath console.log('...wxwxwx...modelFile', modelFile) return new Promise((resolve, reject) => { this.wxInferenceSession = wx.createInferenceSession({ model: modelFile , // precisionLevel: 4, // allowNPU: true, // allowQuantize: false, typicalShape: {input:[1,256,256,3]} }) // 监听error事件 this.wxInferenceSession.onError((error) => { console.error(error) reject(error) }) this.wxInferenceSession.onLoad(() => { this.ready = true resolve() }) }) }
关注后,可在微信内接收相应的重要提醒。
请使用微信扫描二维码关注 “微信开放社区” 公众号
是否所有算子都在 ONNX 规范定义中?
你好,我现在有个 torch定义的模型,利用 torch.onnx.export 方法导出为 onnx 模型,但是在用Taro.createInferenceSession 加载模型时会报如下的错误:
createInferenceSession:fail create session fail : xnet error:6: Failed to convert ONNX model to XNet modelFailed to convet onnx to xnet
我定位到,在经过了 x = torch.cat((a, b), dim=1) 该层之后,模型就加载失败,若不经过该层,模型就能正常的被加载,a.shape==(1, 96, 10, 10) b.shape==(1, 160,10,10), 这个的原因是什么呢
ps: torch模型和onnx模型都能正常预测,模型中的所有算子在官方文档中都显示支持
问题原因是微信支持的ONNX算子有限,可以通过https://github.com/daquexian/onnx-simplifier工具优化并查看最终模型所用的算子是否在微信支持的算子列表中
所以,解决了吗?同遇到这个问题
同问这个问题。
从tensorflow.js的movenet转换到onnx的模型,加载时提示错误。
{"errMsg":"createInferenceSession:fail create session fail : xnet error:6: Failed to convert ONNX model to XNet modelFailed to convet onnx to xnet\n","errno":2004001}
初始化代码如下:
_loadModel(modelPath) { if (!modelPath) { console.error('model path is null!') } let modelFile = modelPath console.log('...wxwxwx...modelFile', modelFile) return new Promise((resolve, reject) => { this.wxInferenceSession = wx.createInferenceSession({ model: modelFile , // precisionLevel: 4, // allowNPU: true, // allowQuantize: false, typicalShape: {input:[1,256,256,3]} }) // 监听error事件 this.wxInferenceSession.onError((error) => { console.error(error) reject(error) }) this.wxInferenceSession.onLoad(() => { this.ready = true resolve() }) }) }