V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
42
相关节点
 显示 37 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 204 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  10 ... 11  
1014982466 现在本地部署 LLM 的话是不是性价比最高的是多卡 5060Ti 16GB?
1014982466  •  23 小时 17 分钟前  •  最后回复来自 usn
6
Sh1xin 私有化部署 LLM 及 LVM 选型方案意见收集
Sh1xin  •  3 天前  •  最后回复来自 mx2dream
23
DejavuMoe 在 n8n 中使用 Ollama 的本地 LLM 模型
DejavuMoe  •  8 天前  •  最后回复来自 Lanzhijiang
1
simple2025 deepseek 如何本地部署啊.
simple2025  •  10 天前  •  最后回复来自 chspy
1
bouts0309 2080ti 22g 有什么效果还可以的 i2v 项目推荐
bouts0309  •  15 天前  •  最后回复来自 hs444
4
ragnarok19 本地部署了大模型如何有效利用?
ragnarok19  •  47 天前  •  最后回复来自 YsHaNg
1
Suinn 大模型本地部署显存计算的问题
Suinn  •  48 天前  •  最后回复来自 Suinn
2
wenkgin AI 本地化部署的方式
wenkgin  •  23 天前  •  最后回复来自 chspy
43
faoisdjioga web search MCP 推荐
faoisdjioga  •  58 天前  •  最后回复来自 AJDX3906
1
1  2  3  4  5  6  7  8  9  10 ... 11  
第 1 到 20 / 共 204 个主题
221 人收藏了这个节点
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2626 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 23ms · UTC 14:29 · PVG 22:29 · LAX 06:29 · JFK 09:29
♥ Do have faith in what you're doing.