V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  mumbler  ›  全部回复第 18 页 / 共 103 页
回复总数  2045
1 ... 14  15  16  17  18  19  20  21  22  23 ... 103  
@wanghui22718 下载也是用户体验的一部分,我们初心就是极致的大模型本地部署体验,在任何电脑上开箱即用,不依赖环境,不用具备相关技术知识,all in one
@sunnysab 从零训练一个大模型,是很贵的,开源模型的大爆发就是从 llama 发布开始的,如果 qwen2 是从 0 训练的,也应该跟 1.5 一样有 14B ,32B 这些参数,为什么没有? 因为 llama3 没有
@DaiShu888 正在上传,很快就好
@yekern 赶紧再微调一个 3.1 的,基座比 3 强了不少
@walkingmoonwell 知识库已经很成熟了,可以用 flashai 免费体验一下,硬件有个 gpu 体验更好
@jeffwcx
llama2 有 7b 13b 33b 70b,qwen1.5 有 7b,14b,34b,72b
llama3 有 8b 70b,qwen2 有 7b ,72b
是不是一样的
@gzlock ollama 只是一个命令行,要用图形界面需要安装 webui ,要用知识库需要安装 anything ,对普通人太麻烦,flashai 底层也是 ollama ,集成了图形界面,知识库,不用一个个去安装了,更方便不是吗
@B4a1n 官方没有说正式支持中文,可能中文语料训练得少,国产模型大都基于 llama3 训练的,很快会出来一堆。10B 以下模型里中文能力目前最好的是 gemma2 9B ,英翻中特别厉害
清空 app 缓存就行了,屡试不爽
@SWALLOWW #8 不知道怎么选择,无脑选 gemma2 9B 就行了,中文能力,逻辑能力都一流,特别翻译能力超过 qwen2 ,各种模型排行榜可以看 https://chat.lmsys.org/?leaderboard
@tailaqumos #5 可以全部提供,包括 AI ,知识库,向量索引的 api ,我们正在做一个框架,方便启动 api 开发的应用
云端 AI 翻译长文档都比较贵,要几十到几百不等
可以用本地大模型翻译,gemma2 9B 翻译效果非常好,下载一个 flashai 就可以了,自带本地大模型和文档翻译功能,开箱即用
flashai.com.cn
@iorilu #2 一个包一个模型,需要哪个启动哪个,这个设计是为了做到开箱即用,否则还涉及到下载模型操作,其实 r 软件不大,模型大小占包 90%以上
@creazyrabbit #1 gamme2 9B 翻译超强,比 qwen2,llama3 都强得多,跟 deepl 没有肉眼区别
147 天前
回复了 aolifu 创建的主题 奇思妙想 想搞一个共享卫生间,一起聊聊?
抄袭滴滴拉屎的创意
用大模型写代码,可以在只懂 PHP 基础的情况下快速写出来,小项目一下午就能搞定
150 天前
回复了 SlanWyf 创建的主题 VMware 13500H 可以流畅使用 vmware 中的 win10 吗
看看宿主机空闲内存是否足够,如果动用了虚拟内存就会慢,一般 16G 机器,空闲内存就 5G 左右,如果开了很多浏览器页面,那就更少了
@shinsekai #46 可能是象形文字读取是图像思维,不走发音系统,弹幕就只有中日可以
只能是中文小说,可以一目十行,英文就算母语者也做不到,所以弹幕只能在象形文字母语者里流行
1 ... 14  15  16  17  18  19  20  21  22  23 ... 103  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5091 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 44ms · UTC 03:46 · PVG 11:46 · LAX 19:46 · JFK 22:46
Developed with CodeLauncher
♥ Do have faith in what you're doing.