V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
meguru
V2EX  ›  机器学习

电脑配置寻找推荐(AI 导向)萌新装机

  •  
  •   meguru · 2023-05-20 09:02:18 +08:00 via Android · 2737 次点击
    这是一个创建于 535 天前的主题,其中的信息可能已经有所发展或是发生改变。

    打算装一台新电脑跑 AI ,比如 stable diffsion 和 sovits ,考虑到以后可能发展到可能本地跑 LLM 这种语言模型,就像 sd 现在模型大小缩了几十倍一样,就长远考虑打算要大显存高算力的配置。而且本人工作上也可能有需要 seg anything 这种性能模型。现在一直租显卡用不方便,是时候搞一台用了。 预算 2 万以下,显卡尽量选择 4090 ,(之所以说买 4090 考虑的是过几年也不会配置卡着用不了新出模型。而且都配整机了还买低端性价比也太低了,免得到时要换。)因为不太懂怎么选只是知道 4090 性能高,推荐其他的也行,要求能够尽可能发挥工作性能,比如跑 AI 、跑虚拟机、3D 工作模型 CAD 等。游戏玩的少,要求不高,不过估计满足上面要求打游戏也不会差。毕竟大部分时间玩 galgame 不需要配置,最多要个 2k 打 gal 。基本就这样了。 一下花这么多钱真是心酸,不过被劝因为是生产力花的也算值,咬咬牙就上了。呜呜呜呜呜呜。其实主要考虑都装整机了,不如一下装个能用久点还能跑动前沿模型的。 大概这两个月配,所以大概可以等 618 和 7 月的 4060ti 16G ,但是那个 128 位宽 3899rmb ,现在的模型好像基本能跑,速度上不知道慢多少,现在能跑明年的新东西不知道能不能跑了,毕竟现在 sd 有个新替代品 IF 需要 16G 显存了,下面这个是优化 8G 版本的,https://github.com/deep-floyd/IF/pull/61 。不过考虑装整机不知道性价比高不高。如果也不错也可以另外做一套低端配置推荐。 装机是也新手,麻烦各位指点指点迷津,谢谢各位。

    16 条回复    2023-06-21 09:38:18 +08:00
    shwnpol
        1
    shwnpol  
       2023-05-20 09:21:25 +08:00
    4060ti 只是算力低,但显存大,现在画图 ai 模型,等别人把参数缩减到 8g 这种程度,你对着数据甚至完全不知道如何下手,属于吃 shi 都赶不上热乎的。没钱就买 4060ti 勉强能上尾班车,真要玩 ai 肯定至少要个 4090
    kokutou
        2
    kokutou  
       2023-05-20 10:06:04 +08:00 via Android
    有钱 24g 的 4090
    没钱 16g 的 4060ti

    8g 现在不配玩 ai 。。。
    lkkl007
        3
    lkkl007  
       2023-05-20 12:29:55 +08:00
    R9 7950X+4090
    EatMi
        4
    EatMi  
       2023-05-20 15:39:16 +08:00
    确实,8G 的一些模型都没办法运行起来
    meguru
        5
    meguru  
    OP
       2023-05-20 16:46:22 +08:00 via Android
    所以推荐有吗
    jpkrhan
        6
    jpkrhan  
       2023-05-20 19:55:04 +08:00 via Android
    这个需求预算多少啊
    paopjian
        7
    paopjian  
       2023-05-20 20:12:54 +08:00
    如果你要跑 sd,其实 8G 显存也勉强够,但是 LLM 什么的起步都至少 80G 的吧,要是就打算玩一玩,还是等 4060ti 16g 或者买个 2080ti 22g 改装版图一乐, 切忌盲目增加需求
    我看到的 32G13700KF+4090 店里都 22000 了,自己装可能再省省,不过你真的会需要 4090 么
    meguru
        8
    meguru  
    OP
       2023-05-21 03:29:22 +08:00 via Android
    @paopjian 可能需要吧,主要是考虑以后的东西可以玩的动,尽管文中 LLM 不是现在考虑的。不过既然整机了,假其他配件都差不多价格的话,那么主要看 4090 的 1s 能相当于 4060ti 几秒了,不知道有没有数据参考参考。
    meguru
        9
    meguru  
    OP
       2023-05-21 03:36:11 +08:00
    目前看来就算是 4G 显存能跑的了的模型,换在显存差不多的 15G ( colab 白嫖的 t4 )和 16G(租的 v100)上面跑,其他参数一致,出图的质量是相差巨大的。不知道为什么。
    liukjx
        10
    liukjx  
       2023-05-21 18:44:27 +08:00
    听说 50 系会有相当大的提升。不急可以等等看
    meguru
        11
    meguru  
    OP
       2023-05-22 17:12:43 +08:00 via Android
    @liukjx 50 系什么时候发布啊
    FENebula
        12
    FENebula  
       2023-06-12 17:16:39 +08:00
    @meguru 同样类似的需求,op 之前租 16g gpu 计算的体验如何?想交流一下,另外感觉不自己训练大模型的话,cpu 和内存的要求不高?最后 2080ti 魔改 22g 有了解吗?
    FENebula
        13
    FENebula  
       2023-06-13 01:06:00 +08:00
    @meguru 去了解了一下你提到的 IF 模型,如果按官方说的第二个最低配置,24g 显存算的话,算上其他的改动,可能 4090 也未必够啊
    meguru
        14
    meguru  
    OP
       2023-06-13 19:07:07 +08:00 via Android
    @FENebula 训练还可,16G 还可以,不过是指 4080 ,用 8G 魔改的速度不如 4080 ,另外出图 16G 不上不下,性价比低,建议 12/24 ,还有优化后 IF8G 就能动
    FENebula
        15
    FENebula  
       2023-06-13 22:43:27 +08:00
    @meguru 找到了一些 4090 和其他卡(包括 4060ti )的对比,能深入交流一下吗?可以把联系方式编个码
    lmkyl
        16
    lmkyl  
       2023-06-21 09:38:18 +08:00
    先买个 4070 12GB
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1340 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 23:36 · PVG 07:36 · LAX 15:36 · JFK 18:36
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.