设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
节点
飞墙
Follow
明白贴
工算小助手
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
程序员
›
求大佬指点, ai 加知识库的内部原理
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
家里最近装了太阳能 50 度电池,有什么好的
›
那些工作中浏览器要打开 50+标签的人都是啥
›
大过年的遇到一个诡异的网络问题
›
26 年研发环境预测,更累?
›
antigravity 的 claude 会偷换模型吗?
今日热议主题
出 98 堂邀请码(色花堂邀请码)98tang 邀
BNBrain 进展更新:现在可以全程 AI 部署并
20260219 午夜俱乐部
Pumpkin - 使用 Rust 开发的高性能 Minecra
如果想像以前免费时代一样(几乎)无限制地
介绍 20260219 openclaw 排行前 100 个 ski
翻到一本 08 年的老杂志,没想到当年的内存
Halt and Catch Fire ——12 年的美剧,比
出 Thinkbook16p 笔记本, 64GB 内存加了硬
台式电脑出二手询价 现在价格有点乱
显示全部
|
最新评论
23 条回复
·
2649 次点击
11#
liuchengfeng1
初学
2025-2-20 09:56:43
我也想知道;例如我把我博客文章全部给 ai ,让 ai 根据我给它的数据,每次问它能找到对应的文章。该如何实现?最好能封装一个 api
12#
joyhub2140
初学
2025-2-20 09:57:18
模型貌似是无状态的,可以理解外靠外挂向量数据库来构建每一次的提问。 你每次问之前,外部程序都会先从自己的提问历史结合向量数据库构造出完整的上下文,再打包发给模型。 我之前还想调用 ollama 的 api ,想着应该会有个 token id 之类的,后面发现没有,想维持上下文,得把之前得提问历史也需要一并发过去给模型,相当于模型只是纯思考的机器,上下文还是得靠外部程序来构建。
13#
moyufjm123
小成
2025-2-20 09:57:37
小白问一下,那要是知识库很大,上下文很多,token 岂不是消耗很快?应该涉及多次问答会不会重复发送上下文?
14#
onevcat
初学
2025-2-20 09:58:15
RAG
15#
aloxaf
小成
2025-2-20 10:10:57
嵌入模型是用来把文字转成向量的,这样就可以把文字的相似度匹配转成向量的相似度匹配,这样一来更快,二来还能匹配语义上相似但实际不同的句子。
16#
xwayway
小成
2025-2-20 10:11:33
@moyufjm123 #12 会返回知识库的 top k ,不会整个知识库一起给到大模型
17#
chairuosen
小成
2025-2-20 10:12:21
小白再问一下,大语言模型是基于概率预测的,那即使有知识库,它一定能返回和知识库内容完全一样的结果么?比如让它基于条件选择合适的 row 并把知识库这一行完整返回来
18#
tool2dx
初学
2025-2-20 10:17:47
@chairuosen 我用 deepseek 试过,可以把知识库作为提示词一部分喂给他,基本上回答没啥问题,比别的 AI 模型要聪明。就是比较费 token 。
19#
aloxaf
小成
2025-2-20 10:17:55
@moyufjm123 > 那要是知识库很大,上下文很多,token 岂不是消耗很快? 理论上是的,但是一般来讲,只有被匹配到的一段文本(和它们的上下文)会被发送给 LLM ,而且很多工具只会发送匹配度最高的 N 段文本,当然代价就是准确性降低。 > 涉及多次问答会不会重复发送上下文? 会,但有的模型是支持缓存的,比如 OpenAI 和 DeepSeek 连续对话时会自动缓存上下文,命中缓存就有折扣。不过也有模型比如 Claude 和 Gemini 得手动触发缓存,很多工具压根就没有适配……
20#
tool2dx
初学
2025-2-20 10:21:03
@moyufjm123 如果知识库很大,会改用微调大模型,这方法不合适。这方法就是很消耗 token ,没办法。
下一页 »
1
2
3
/ 3 页
下一页
浏览过的版块
问与答
返回顶部