设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
资源
节点
飞墙
Follow
明白贴
报酬
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
程序员
›
求大佬指点, ai 加知识库的内部原理
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
我的人生好像有点坏掉了,请大家给点建议
›
长话短说 大家觉得花三十万结婚,存款花完
›
关于在大城市留不下来这件事,大家都是怎样
›
域名不用了记得要及时注销备案
›
重度苹果用户投华做了两面派
今日热议主题
有一直在用 Floorp 分支的F友么? 前几天更
集体照有同事没来, 有啥补拍个人照后 p 上
记录人生中第一次拍摄流星雨!
我向影视飓风投递了一个有价值的创意想法
出 Sony ZVE10L 套机+唯卓仕镜头
网上配了副眼镜,戴着不舒服,退也不能退,
yt-dlp 获取 1080p 60fps 参数,按这个教程
app 或者网页接入支付宝/微信支付的问题
[Vibe Coding] 做了个免费人生 K 线图生成
有没有出招行白金体检的
显示全部
|
最新评论
23 条回复
·
2611 次点击
11#
liuchengfeng1
初学
2025-2-20 09:56:43
我也想知道;例如我把我博客文章全部给 ai ,让 ai 根据我给它的数据,每次问它能找到对应的文章。该如何实现?最好能封装一个 api
12#
joyhub2140
初学
2025-2-20 09:57:18
模型貌似是无状态的,可以理解外靠外挂向量数据库来构建每一次的提问。 你每次问之前,外部程序都会先从自己的提问历史结合向量数据库构造出完整的上下文,再打包发给模型。 我之前还想调用 ollama 的 api ,想着应该会有个 token id 之类的,后面发现没有,想维持上下文,得把之前得提问历史也需要一并发过去给模型,相当于模型只是纯思考的机器,上下文还是得靠外部程序来构建。
13#
moyufjm123
小成
2025-2-20 09:57:37
小白问一下,那要是知识库很大,上下文很多,token 岂不是消耗很快?应该涉及多次问答会不会重复发送上下文?
14#
onevcat
初学
2025-2-20 09:58:15
RAG
15#
aloxaf
小成
2025-2-20 10:10:57
嵌入模型是用来把文字转成向量的,这样就可以把文字的相似度匹配转成向量的相似度匹配,这样一来更快,二来还能匹配语义上相似但实际不同的句子。
16#
xwayway
小成
2025-2-20 10:11:33
@moyufjm123 #12 会返回知识库的 top k ,不会整个知识库一起给到大模型
17#
chairuosen
小成
2025-2-20 10:12:21
小白再问一下,大语言模型是基于概率预测的,那即使有知识库,它一定能返回和知识库内容完全一样的结果么?比如让它基于条件选择合适的 row 并把知识库这一行完整返回来
18#
tool2dx
初学
2025-2-20 10:17:47
@chairuosen 我用 deepseek 试过,可以把知识库作为提示词一部分喂给他,基本上回答没啥问题,比别的 AI 模型要聪明。就是比较费 token 。
19#
aloxaf
小成
2025-2-20 10:17:55
@moyufjm123 > 那要是知识库很大,上下文很多,token 岂不是消耗很快? 理论上是的,但是一般来讲,只有被匹配到的一段文本(和它们的上下文)会被发送给 LLM ,而且很多工具只会发送匹配度最高的 N 段文本,当然代价就是准确性降低。 > 涉及多次问答会不会重复发送上下文? 会,但有的模型是支持缓存的,比如 OpenAI 和 DeepSeek 连续对话时会自动缓存上下文,命中缓存就有折扣。不过也有模型比如 Claude 和 Gemini 得手动触发缓存,很多工具压根就没有适配……
20#
tool2dx
初学
2025-2-20 10:21:03
@moyufjm123 如果知识库很大,会改用微调大模型,这方法不合适。这方法就是很消耗 token ,没办法。
下一页 »
1
2
3
/ 3 页
下一页
浏览过的版块
问与答
支付宝
返回顶部