评论

LLM知识库问答配额申请说明

新版本中我们全面上线了LLM知识库问答服务。为了保障服务的稳定性,每个机器人每月有 1000次 大模型调用配额(自启用日起计算)。考虑到资源公平分配,我们将开放邮件申请通道。

新版本中我们全面上线了LLM知识库问答服务。为了保障服务的稳定性,每个机器人每月有 1000次 大模型调用配额(自启用日起计算)

  1. 超过配额后将停止LLM文档问答和问答增强的能力,基础的“常用问答”服务仍可维持。
  2. 配额仅在未被“常用问答”和“任务技能”召回,且可以检索到内容相关性时消耗
  3. 建议优先配置常用问题库,既能降低LLM消耗,又能提升回答精准度。

功能上线后我们陆续收到开发者反馈,大模型配额不够满足实际业务的使用,希望进一步扩容。

考虑到资源公平分配,我们将开放邮件申请通道。并在评估后,提升对应机器人的大模型配额。

发送邮件至:wechatopenai@tencent.com  

邮件标题【LLM配额申请】并提供以下信息:

1.  1、机器人ID

2.  2、月调用量预估

3.  3、应用场景说明


最后一次编辑于  04-27  
点赞 0
收藏
评论

2 个评论

  • Jz
    Jz
    05-29

    既然免费额度不够,为什么不开放模块可以接入我们自己部署的私有化大模型API

    05-29
    赞同 12
    回复 3
    • 无名
      无名
      09-24
      老马:只有我抢别人的饭碗,我怎么可能被抢
      09-24
      回复
    • ZYRich
      ZYRich
      09-30
      老马:免费额度不够,那就花钱吧, token/千 = 0.002元
      09-30
      回复
    • 李牧然
      李牧然
      11-04
      支持接入WeKnora也行啊
      11-04
      回复
  • 笑看风云
    笑看风云
    11-04

    刚调通,tmd额度又要申请,你付费也行啊

    11-04
    赞同
    回复
登录 后发表内容