简单看了下,应该是LayerNorm 的问题,这个算子在 torch 一般都是多个算子组合起来使用的。所以一直没写对应转化。可以尝试自己根据 torch 导出来或者等后续更新。 我猜测你的模型使用的是:https://huggingface.co/vietanhdev/segment-anything-onnx-models/tree/main 这里面的?
wx.createInferenceSession错误erron:2004001是什么原因?{errno: 2004001, errMsg: "createInferenceSession:fail create session fail : xnet error:6: [ONNX] Failed to convert ONNX model to XNet modelFailed to convet onnx to xnet↵"} 在社区中找到据说是onnx算子不支持的原因,使用https://github.com/daquexian/onnx-simplifier工具优化onnx模型后如下图 [图片] 依然是报这个错误,不知道是什么原因导致的。测试模型是facebook的segment anything.
2023-09-05是的。。是从本地读取的。
createInferenceSession 报错,找不到本地的onnx模型errMsg: "createInferenceSession:fail model path invalid : failed to find model on path ./yolo.onnx"errno: 2004000以上为报错信息,我的onnx模型就放在跟index页面文件夹下,和index.js同级,不知道为什么就是读取不到onnx文件。 是新建项目里的最基础js模板创建的。没有进行其他任何设置。 const modelPath = `./yolo.onnx` this.session = wx.createInferenceSession({ model: modelPath }) this.session.onError((error) => { console.log(error) }) this.session.onLoad(() => { console.log('session loaded') }) [图片]
2023-05-26这个看起来就是 文件名称不对,可能传入的path有点问题。 目前安卓的 NPU 还没搞好。可以先看看 ios 有问题没,ip11+的机器
Android真机调试调用wx.createInferenceSession创建推理会话失败?modelSession = wx.createInferenceSession({ model: tempFilePath, precesionLevel: 4, allowNPU: this.data.runDevice === 'NPU', allowQuantize: false }) console.log({ modelSession }) // 监听error事件 modelSession.onError((error) => { console.error(error); }); // 监听模型加载完成事件 modelSession.onLoad(() => { console.log('session load') }); this.setData({ [fileSelectedDataPath]: tempFileName }) onnx 模型文件是调用 wx.chooseMessageFile 从会话里选择的 [图片]
2023-05-12是否所有算子都在 ONNX 规范定义中?
createInferenceSession failed 转换ONNX模型失败?createInferenceSession:fail create session fail : xnet error:6: Failed to convert ONNX model to XNet modelFailed to convet onnx to xnet 背景: 测试用的模型来自于torchvision ssdlite通过torch.onnx.export导出该模型在onnxruntime上可以成功运行如何获得模型转换失败的更详细原因? 什么是XNet模型?
2023-03-23是否有一些ONNX规范里面不存在的算子,或者有一些非常规网络里面的算子,比如 Conv 的 Kernel 大小超过128
createInferenceSession:fail 2004001 ?{"errMsg":"createInferenceSession:fail create session fail : xnet error:6: Failed to convert ONNX model to XNet modelFailed to convet onnx to xnet\n","errno":2004001} 模型信息:双输入 ,两个输入都是只有两个维度 [1,8000] [图片] 错误截图: [图片]
2023-03-23看起来是NHWC输入,后面是不是接了Reshape;目前更倾向于使用NCHW格式输入。NHWC后面接reshape/permute 会有一些问题
wx.createInferenceSession()接口加载onnx模型,创建session失败?通过wx.createInferenceSession()接口加载onnx模型,创建session失败 从tensorflow.js 的movenet转换到onnx的模型,加载时提示错误。 {"errMsg":"createInferenceSession:fail create session fail : xnet error:6: Failed to convert ONNX model to XNet modelFailed to convet onnx to xnet\n","errno":2004001} 模型图如下: [图片] 加载模型初始化代码如下: _loadModel(modelPath) { if (!modelPath) { console.error('model path is null!') } let modelFile = modelPath return new Promise((resolve, reject) => { this.wxInferenceSession = wx.createInferenceSession({ model: modelFile , // precisionLevel: 4, // allowNPU: true, // allowQuantize: false, typicalShape: {input:[1,256,256,3]} }) // 监听error事件 this.wxInferenceSession.onError((error) => { console.error(error) reject(error) }) this.wxInferenceSession.onLoad(() => { this.ready = true resolve() }) }) }
2023-03-23