V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  zivn  ›  全部回复第 1 页 / 共 12 页
回复总数  231
1  2  3  4  5  6  7  8  9  10 ... 12  
2 天前
回复了 Flowing 创建的主题 ☕Vibe Coding🤖 大家现在订阅哪个模型?
@weisongw 国际站不限购,成本对比可以看我另外一篇帖子
2 天前
回复了 zivn 创建的主题 程序员 搓了个适用于 Claude Code + GLM 的 Status Line
顺便打个广,抢不到智谱 Coding Plan 的,欢迎来一起来国际站薅返利优惠啊 [/t/1204287]( https://www.v2ex.com/t/1204287)
2 天前
回复了 zivn 创建的主题 程序员 搓了个适用于 Claude Code + GLM 的 Status Line
@bkchan Maple Mono NF CN ,可以用 brew 装 `brew install font-maple-mono-nf-cn`
龙虾普及以后,人手一只,大量 token 被浪费,实际没有什么产出。
整体算力是不够的,token 肯定要越来越贵,收费是必然的。
2 天前
回复了 Flowing 创建的主题 ☕Vibe Coding🤖 大家现在订阅哪个模型?
不配用 Claude ,ban 了好几个账号。
现在是 GLM 5.1 跑 cc ,minmax 2.7 跑 openclaw 。
2 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
使用中发现的 tips 补充:
1. 国际站的 api key 可以请求国内站的 api 和 mcp ;
2. 不要使用天翼云的 GLM Coding Plan ,疑似二道贩子,高峰期几乎无法使用;
3. 尽量一开始就选择合适的套餐,续费升级都没有推荐人折扣;
3 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
谢谢大家的支持,已经累计返现十笔🙂
3 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
@lucifer9 实测都是一模一样的,国际站的 key 请求国内站地址也可以用的,我试了下是通的。
3 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
@Livid 懂了,以后会注意
3 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
@Livid 现在改不了了,那只能麻烦大佬给移一下了
3 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
@PerFectTime 站内禁止推广么?我看很多发直接发链接的也没咋啊,我还给返一部分,不是对双方都是好事么?
3 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
@byteLoading 感觉这个用量,和 GLM Lite 差不多啊,不太值 10 刀,5-8 刀差不多。
3 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
算力应该中国站和国际站是同源的,没啥区别,话说现在不限速不卡的,应该也没有了吧,都缺算力,现在阿里云都卡。
3 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
@fengyingtech 国内反应慢也不是因为网速啊,算力不够 TPS 低,国内站还是海外站都是一样的。
3 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
其实要是能找个老外拼单倒是不错,24 小时轮班,高级模型 1 并发也不怕了。
3 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
@comefromweb 没感觉速度有啥区别,查了下 IP 部署在新加坡,应该没太大问题。
GLM 主要问题是目前算力不够,TPS 不高。
3 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
国际站和国内站除价格外完全一致,包括用量、MCP 和 debuff 时间 🙂
3 天前
回复了 zivn 创建的主题 推广 国际站的 GLM Coding Plan 不限购
加绿泡泡请注明来意,V 友们真热情,已返 2 为 pro 年包大佬。
7 天前
回复了 Livid 创建的主题 OpenClaw 使用本地模型 Gemma4 来驱动 OpenClaw
mlx 版本在 huggingface 上,mlx-community/gemma-4-31b-it-nvfp4 ,需要用 mlx-vlm 运行。
7 天前
回复了 Livid 创建的主题 OpenClaw 使用本地模型 Gemma4 来驱动 OpenClaw
32G M3 Pro 不论用 mlx 还是 ollama 跑 31b 基本没法用。
聊天可以,openclaw 直接卡死。
虽说理论上只要 20G 内存,但 openclaw 上下文太长了,预填充要几分钟甚至十几分钟。
26b 是 MOE 就没试了,感觉还是 Dense 才有前途。
1  2  3  4  5  6  7  8  9  10 ... 12  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   980 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 21ms · UTC 19:09 · PVG 03:09 · LAX 12:09 · JFK 15:09
♥ Do have faith in what you're doing.