V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
ByteCat
V2EX  ›  程序员

流出的类 GPT 模型 LLaMA 的运行效果

  •  
  •   ByteCat · 2023-03-05 18:42:27 +08:00 · 2950 次点击
    这是一个创建于 645 天前的主题,其中的信息可能已经有所发展或是发生改变。

    相信大家都已经下载了 LLaMA 的模型来玩了,我今天也玩了一下,效果其实和想象的差很多。

    运行环境: GPU: RTX 4090 Weight: LLaMA-7B 在默认 FP16 下运行,会占用 22GB 左右的显存

    总结:英文补全勉强能看,但好像还是挺差的,中文补全直接胡言乱语,和 GPT-3 相距甚远,可能还要作为模型基础继续针对训练,对普通用户来说基本没什么可用性,毕竟有一张至少 24G VRAM 的 GPU 就挺难了

    Wenbobobo
        1
    Wenbobobo  
       2023-03-05 19:47:46 +08:00 via Android
    托管在抱脸上的 7B demo
    https://huggingface.co/spaces/chansung/LLaMA-7B
    可以都去试试,确实现在还不太行
    yzlnew
        2
    yzlnew  
       2023-03-09 08:17:33 +08:00 via Android
    你跑一个 7B 的怎么可能会行啊?
    ByteCat
        3
    ByteCat  
    OP
       2023-03-09 13:01:57 +08:00
    @yzlnew 7B 就占用 22G VRAM 了,我感觉很多人连 7B 都跑不起来吧,只能说不太适合个人用了
    yzlnew
        4
    yzlnew  
       2023-03-09 19:10:54 +08:00
    @ByteCat GPT-3 级别的大模型推理目前标配需要 8*A100 才有比较合理的延迟。不然只能借助各种 offloading 的优化方案。
    18601294989
        5
    18601294989  
       2023-04-12 15:23:28 +08:00
    13b 啊
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   916 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 22:15 · PVG 06:15 · LAX 14:15 · JFK 17:15
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.