如果用xr-frame框架实现渲染,可以用share系统拍照https://developers.weixin.qq.com/miniprogram/dev/component/xr-frame/share/,如果使用threejs其他渲染库,用webgl接口截屏
xr-camera 添加了人脸识别面具后 如何保存图片 或者拍照?应该怎么操作能把获取xr-camera 戴面具的 图片地址及保存到相机
07-03看下有没有设置隐私协议。
xr frame启动不了ar systemhttps://developers.weixin.qq.com/miniprogram/dev/component/xr-frame/core/ 开发环境没问题,线上却报错,相机权限已经申请了 [xr-frame] <Error: AR system start error(Marker,2,Back,false): from VisionKit, errorcode is 2003002> Error: AR system start error(Marker,2,Back,false): from VisionKit, errorcode is 2003002 at https://lib/WAXRFrameRenderContext.js:1:1305557 at https://lib/WAXRFrameRenderContext.js:1:1306412 [图片][图片]
07-02xr-frame的AR功能是接入的小程序自带的VKSession,VKSession的图像识别只支持图片文件。100+识别图用云识别吧。
xr-frame 2D Marker识别模式能不能支持直接传入特征信息,而不是图片资源?当前获取2D Marker图片特征信息这一步是本地进行的,这一操作应该是比较消耗性能的,marker数量越多,页面阻塞时间越长,实测添加100个marker耗时接近20s,用户体验相当差,直接导致生产环境基本不可用(支持100+图片识别是很正常的业务需求)。如果可以提前获取特征信息,使用时直接加载特征信息文件,是不是就能大幅减少等待时间。事实上,一些Web AR库也是这么做的,如AR.js,MindAR。
07-02目前引擎就这样的,希望后面版本功能升级能完善。
xr-frame点击gltf模型求相交,相交位置不准确,怎么处理?xr-frame点击gltf模型,计算出的相交位置不准确是怎么回事? const raycastHit = new xrFrameSystem.RaycastHit(scene) const desc: RaycastDesc = { origin: xrFrameSystem.Vector3.createFromArray(value.origin), unitDir: xrFrameSystem.Vector3.createFromArray(value.dir), distance: 10000, hit: raycastHit } if (scene.physics.raycast(desc)) { wx.showToast({title: '---相交了--', icon: 'none'}) if (desc.hit) { const points = desc.hit.point.toArray() const shadow = scene.getElementById("shadow") const mesh = scene.createElement(xrFrameSystem.XRMesh) mesh.setAttribute("geometry", "cube") mesh.setAttribute("node-id", "dynamicCube") mesh.setAttribute("scale", "0.2 0.2 0.2") mesh.setAttribute("position", points.join(" ")) mesh.setAttribute("states", "alphaMode: BLEND") mesh.setAttribute("uniforms", "u_baseColorFactor: 1 0 0 1") shadow.addChild(mesh) } }
06-29用camera提供的方法https://developers.weixin.qq.com/miniprogram/dev/api/xr-frame/classes/Camera.html#convertClipPositionToWorld
xr-frame中能否获取子物体的世界坐标?目标是点击屏幕时在相机正前方创建一个物体,但是现在无法获取相机正前方1.5m处的世界坐标 如下图:在camera下创建了一个node,这样在移动相机的时候相机本身的坐标相对世界坐标是在移动的。但是camera下node1获取的坐标是以camera的中心点为坐标原点来计算的,所以即使camera的坐标有变化,动态读取到的node的坐标也始终保持在 0 0 1.5。有没有办法获得node相对世界坐标轴的位置? [图片] [图片]
06-29错误信息里的几个扩展都不是GLTF的官方扩展,多数3D渲染引擎都不支持,微信小程序官方的xr-frame支持的扩展在这个文档里https://developers.weixin.qq.com/miniprogram/dev/component/xr-frame/gltf/specification.html#gltf%E6%89%A9%E5%B1%95
GLTFused extension SEIN_renderer not supported?请教各位小程序3D大神, 如下报错到底如何处理 我是引用了一个.glb模型文件后报错的!!! [GLTF]used extension "SEIN_textureImprove" not supported [GLTF]used extension "SEIN_renderer" not supported [GLTF]used extension "SEIN_node" not supported.
06-26可以考虑图像云识别
xrframe中动态遍历加载xr-ar-tracker 如何释放已加载的识别图片资源?分包引入xrframe的图像识别,超过一定数量小程序报内存不足闪退,如何优化分包加载释放资源,遍历50-100张图片会崩,求解决方案? https://developers.weixin.qq.com/miniprogram/dev/api/xr-frame/classes/XRARTracker.html#release该方法的作用和实现有示例吗
06-26gltf自带的动画是ModelAnimation,KeyframeAnimation可用于GLTF吗?
请问xr-frame 动态加载的资源如何添加keyframe动画组件?[图片]
06-12https://developers.weixin.qq.com/miniprogram/dev/component/xr-frame/share/#%E6%88%AA%E5%8F%96%E7%94%BB%E5%B8%83
ar相机模式下可以拍照么 ?想要实现 xr-frame 中的 用ar相机识别 物体 播放模型 可以有拍照么
06-04page里有两个AR组件,一个用于Face,一个用于Marker。 切换过程就是两个组件切换,切换后整个AR系统重新启动。
xrframe中如何删除一个组件?在一个page中想同时使用<xr-ar-tracker mode="Face">和<xr-ar-tracker mode="Marker">,文档里面写的“目前不支持 modes 模式的动态切换。如果需要切换,可以考虑销毁原AR组件后,新建其他AR模式组件实现”。请问大佬是怎么删除,怎么新建呢?能写点示例代码吗?
06-03