V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
duanrancosmos
V2EX  ›  Local LLM

求助,做 AI 深度学习服务器跑大模型推理,选 RTX5080*2 还是一张 4090

  •  
  •   duanrancosmos · 48 天前 · 1146 次点击
    这是一个创建于 48 天前的主题,其中的信息可能已经有所发展或是发生改变。

    价格来去基本不大,5080 一张显存 16G ,4090 一张 24G 。到底选哪个好,好纠结

    6 条回复    2025-02-14 13:45:46 +08:00
    liu731
        1
    liu731  
       48 天前
    4090 保值率高点
    yplam
        2
    yplam  
       48 天前 via Android
    双卡之间带宽是瓶颈,速度比单卡慢不少,并且用双卡跑要折腾,建议单卡 5090
    Yadomin
        3
    Yadomin  
       48 天前
    4090 48G
    murmur
        4
    murmur  
       48 天前
    4090 48 好像新改的,据说只有 linux 能发挥出来,前期还是慎入
    sorry
        5
    sorry  
       48 天前
    选显存大的
    Gnihton
        6
    Gnihton  
       46 天前
    @murmur windows 下一样的
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   982 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 19:43 · PVG 03:43 · LAX 12:43 · JFK 15:43
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.