V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  ShadowPower  ›  全部回复第 1 页 / 共 76 页
回复总数  1506
1  2  3  4  5  6  7  8  9  10 ... 76  
我换了低亮度 DC 调光,高亮度高频 PWM 调光的安卓(红米)
我对 PWM 调光敏感,但这玩意看着却不难受了。
安卓阵营有很多选择,而且对某个品牌不满意也可以随便换,所以其实没有 OP 说的问题。

倒是苹果设备仅此一家,在上面的投入多了,换起来沉没成本远高于手机售价,反而不好换了……
13 小时 17 分钟前
回复了 zs3128589 创建的主题 MacBook Pro 狗东 MBP16 翻车
京东签收 24 小时内有外观问题是可以退换的,超过 24 小时就不能了
2 天前
回复了 jjxtrotter 创建的主题 Apple 盲猜 M4 芯片 CPU/GPU 挤牙膏, NPU 性能大增
@s7964926 苹果给出的是 SoC 带宽。如果只看 SoC 上某个单元的最大内存带宽,实际上都达不到这个数值……
3 天前
回复了 jjxtrotter 创建的主题 Apple 盲猜 M4 芯片 CPU/GPU 挤牙膏, NPU 性能大增
@s7964926 M1 Ultra 的内存带宽和 M2 Ultra 其实差不多,换 M2U 有一点提升,但不明显
3 天前
回复了 jjxtrotter 创建的主题 Apple 盲猜 M4 芯片 CPU/GPU 挤牙膏, NPU 性能大增
@s7964926 其实 13B 这种规模建议用 N 卡跑,N 卡的显存能装得下时,就比 Mac 快。
买 Mac 都是奔着双 3090 (或者单 3090 )跑不动的那种模型去的……
用 llama.cpp q5_k_m 量化可以取得质量和性能之间的最佳平衡。
5 天前
回复了 jjxtrotter 创建的主题 Apple 盲猜 M4 芯片 CPU/GPU 挤牙膏, NPU 性能大增
@s7964926 13B 应该挺快的,估计有 20 多 Token/s
闲鱼买过 5 台,都说无拆无修。我到手就拆,其中 4 台有维修痕迹……
6 天前
回复了 jjxtrotter 创建的主题 Apple 盲猜 M4 芯片 CPU/GPU 挤牙膏, NPU 性能大增
@kyor0 M 系列处理器就是之前的 A*X 处理器,M1 就是 A14X 。相比 A12X 的提升幅度,和过去的型号比也符合预期。
7 天前
回复了 xxfye 创建的主题 Apple 最近 Oryon 发布,高通又要狠掐苹果信号了。
高通限制苹果有什么好处,要是给苹果的基带确实差,苹果直接用从 Intel 收购来的或者联发科的基带就好了。
@CastleBUPT 我还真给苹果提过 feedback ,对于这种“希望加什么功能”的建议,恐怕苹果是所有品牌里最不听消费者的那个……
9 天前
回复了 sbldehanhan 创建的主题 MacBook Pro 哪款 Macbook 可以跑 UE 引擎?
@sbldehanhan
都能用

M1 用不了 Nanite Virtualized Geometry 和 Virtual Shadow Maps ,M2 可以
M3 有光追,但是 UE (最新版本)的光追不支持 Mac

不过要是对第三方资源、引擎功能特性有需求,其实不该用 Mac ,都不行……
@CastleBUPT 其他板块也一样,问非苹果产品的问题,也会有人推荐换苹果设备(哪怕其实换了也不能解决问题)。
换完了之后发现某些需求没有满足,当然来 Apple 板块发帖了。
9 天前
回复了 sbldehanhan 创建的主题 MacBook Pro 哪款 Macbook 可以跑 UE 引擎?
可以跑……
那么 8GB 内存丐版 MBA 就可以
10 天前
回复了 enaxm 创建的主题 macOS mac 怎么解压中文加密的 zip 包?
@enaxm 不知那些压缩工具能不能在不知道解压密码的情况下合并分卷……
10 天前
回复了 enaxm 创建的主题 macOS mac 怎么解压中文加密的 zip 包?
from zipfile import ZipFile

with ZipFile("文件名.zip", "r", metadata_encoding="gb2312") as z:
z.extractall(pwd="中文密码".encode("gb2312"))

这样解压
10 天前
回复了 qweruiop 创建的主题 Apple m3 max 128 的使用场景?
@lancelvlu 之前我在玩 llama.cpp ,然后每天逛 reddit ( localllm 板块),和 github 的 issue 。
llama.cpp 有个版本开始支持了 metal ,有些人碰到了模型加载失败的问题,于是有个工程师( llama.cpp 贡献者)用自己的 mac 做了测试,得出的这个结论。

现在找的话,不太好找,印象中他用的是 64GB 内存的型号,实际可直接分配的最大显存有 37GB 左右。我记不得精确数字,只记得是 3 开头,超过 32GB 一些。
小米 14 吧,没有偏科,比较均衡。
1  2  3  4  5  6  7  8  9  10 ... 76  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1613 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 33ms · UTC 16:49 · PVG 00:49 · LAX 09:49 · JFK 12:49
Developed with CodeLauncher
♥ Do have faith in what you're doing.