小程序
小游戏
企业微信
微信支付
扫描小程序码分享
在使用posenet.load 时如何缓存模型,达到没吃load时减少模型的网络请求
1 个回答
加粗
标红
插入代码
插入链接
插入图片
上传视频
posenet.load(cfg)
其中cfg是可以设置modelUrl,假设你模型已经在小程序的文件目录
那么你可
const fileStorageHandler = tf_plugin.fileStorageIO( /* 这里填小程序本地模型的路径 */, wx.getFileSystemManager() ) cfg.modelUrl = fileStorageHandler
然后再posenet.load(cfg)就行了,模型就不会到网上拉了
你好,麻烦通过点击下方“反馈信息”按钮,提供出现问题的。
关注后,可在微信内接收相应的重要提醒。
请使用微信扫描二维码关注 “微信开放社区” 公众号
posenet.load(cfg)
其中cfg是可以设置modelUrl,假设你模型已经在小程序的文件目录
那么你可
const fileStorageHandler = tf_plugin.fileStorageIO( /* 这里填小程序本地模型的路径 */, wx.getFileSystemManager() ) cfg.modelUrl = fileStorageHandler
然后再posenet.load(cfg)就行了,模型就不会到网上拉了
const fileStorageHandler = getApp().globalData.fileStorageIO(
FILE_STORAGE_PATH, wx.getFileSystemManager());
try {
this.model = await tfc.loadGraphModel(fileStorageHandler);
} catch (e) {
this.model =
await tfc.loadGraphModel(MODEL_URL);
this.model.save(fileStorageHandler);
}
这种机制,但我看了posenet源码并没有使用this.model.save();
在调用posenet.load的时候又不知道如何去缓存这个模型
这里有个模型可以用