V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  ShadowPower  ›  全部回复第 8 页 / 共 86 页
回复总数  1711
1 ... 4  5  6  7  8  9  10  11  12  13 ... 86  
国产手机有高频 PWM 调光 OLED ,其实主要是三星没有这个……
194 天前
回复了 gklll 创建的主题 Apple 库克什么时候退休 & 如何评价库克
@icloudguizhou 我用 Mac 不需要顶配,因为它大多数时间只是一个图形终端+Safari 调试机。如果我有多余的钱,我就拿去升级我的台式机。
iPad 的话,本来我的用途就是娱乐/玩具(哪怕画画都是画着玩,不赚钱)。不上 iPad Pro 没有高刷,看起来感觉画面都是一顿一顿的。上 iPad Pro 的话,它的售价对于“玩具”的定位来说还是太离谱了。

在乔布斯那个时代,买低配型号,相比竞品也不会有什么体验方面的短板。无论你选择什么规格,苹果最引以为傲的那些优势,每位苹果用户都可以平等地享受到。

而在库克时代,几乎所有低配都有故意让你感到不好用的地方,引导你去选购更高版本。哪怕你根本用不上那么高的规格。

库克把很多东西都捆绑在一起卖,还把最适合多数人的规格给砍掉了。例如存储容量会跳过一档,16G 的下一个选项是 64G ,之后 32G 的下一个选项是 128G ,以此类推。你需要为你用不到的硬件升级付费。
如果是 PC 还好,Mac 、iPad 升到那么高的规格,没多少大型游戏可以玩,也没什么吃性能的软件要用。
@gchuyun 可以换一个假设,苹果没有发布 M1 ,而是发布了搭载当时高通最好的 8cx gen 2 的 MBP 。

用户换了新款 Mac 发现大多数应用都需要转译,有很多软件(例如 Docker )还不能用,还没跑几个应用,处理器就满载了,而且此时能耗比表现也没有优势。

如果只有这种处理器可选,苹果应该不会推出 ARM 笔记本……
@wniming 确实,WoA 有个额外的好处,是能让笔记本大厂去做 ARM 笔记本。
然后 Windows 本身保证了设备必须具有 UEFI+ACPI 。
买来可以装 Linux (如果适配了的话)。
这至少比之前那些基于 XX 派的笔记本好不少。无论是做工、性能还是能耗比,也不用看发行版官网有没有当前设备可用的镜像。
@coolcoffee 只要办公软件、IM 、开发工具(短时间运行的无所谓,例如 git )、浏览器都有原生版本,日常体验就很棒了。
其他的转译也无所谓,哪怕是游戏,因为 x86 下的表现其实不过如此……
194 天前
回复了 gklll 创建的主题 Apple 库克什么时候退休 & 如何评价库克
乔布斯给苹果产品型号做划分并不会以用户体验来区分它们,比如有高刷、无高刷;全贴合屏、非贴合屏等。

只会按台式机、笔记本;便携、非便携这样的产品定位来区分它们,但每个品类下的产品,都做到苹果能做到的最好的样子。
@rojer12 这种使用场景在 Windows RT 的时代就可以做到了……
我觉得不会撼动 MacBook 的地位,但会对整个行业产生很大的影响。
PC 市场会进一步细分,而且一部分 Android 用户(搞机的那种)和一部分 macOS 用户会享受到好处。
@ZeroDu 其实是微软能不能成,就看这个 u 了。
假如在某个平行宇宙中,高通拿出了比最快的 x86 处理器还快 100 倍的处理器,而且此时功耗只有 8W 。
那么微软什么都不用做就可以成功……
出二手,再收个 12T ,包很多
不能买断的都不买
买之前都先试用,我几个月前买了 Fork ,在此之前试用了大约 5 年
195 天前
回复了 mogutouer 创建的主题 Apple AI 开发时代, APPLE MAC 落后了
@ZedRover 可以用 WSL2 来开发和调试,依赖 N 卡的东西也能调得通(不必临时改掉)。
调通了再放服务器上。
@laobobo 2K 以下分辨率,所有游戏特效随便开最高,4K 不行
195 天前
回复了 mailke 创建的主题 MacBook Pro 用 Mac,真的能够更好学 it 吗
@AlexHsu 有 WSL 的情况下,Windows 装 Redis 和 Linux 并没有什么区别。跑起来之后 WSL 外的程序也能直接连上。
195 天前
回复了 mogutouer 创建的主题 Apple AI 开发时代, APPLE MAC 落后了
@lithiumii 还真不行,个人用其实 2x3090 最划算,Mac 的问题在于速度实在是太慢了。
别看 NVIDIA 的显存不大,但个人项目如果模型不大,全参数训练完全没问题。如果模型大的话,NVIDIA 有 bitsandbytes 和 flash attention 这些生态,又能省显存又能提速。

用 Lora 、Dora 这类方法来微调模型的时候,基础模型的权重其实可以保持在量化状态,只要能推理就行。但 Mac 用不了 bitsandbytes ,反而需要巨大显存(内存)+缓慢的速度。

哪怕能用 MPS 后端来跑(无论上层框架是什么)且没有兼容问题,对于训练任务,提速效果都不好。一般也就比 CPU 跑快 1~2 倍,苹果的 ANE 是完全用不上的(好像是因为不支持反向传播,我不太确定)。

大内存的 Mac 几乎就是 llama.cpp 推理专用机……如果只用过这个,确实会觉得在家里训练不了什么模型。

至于大公司的例子,他们都有一大堆 A100 ( A800 )、H100 ( H800 ),当然不会用消费级显卡来跑,而且 NVIDIA 的许可协议在几年前就专门规定禁止将消费级显卡运用于数据中心等用途了。这不代表普通消费者不能这么干。
195 天前
回复了 mogutouer 创建的主题 Apple AI 开发时代, APPLE MAC 落后了
@LuckyLauncher 除了参数量很大的 LLM 以外,大多数东西用消费级显卡还真能搞定。
很多生产力任务都已经用上了,比如:
高质量视频插帧、视频降噪、视频超分辨率、SDR 转 HDR 、光追渲染加速(少量采样+AI 预测最终结果)
Stable Diffusion XL 也达到了生产可用的程度,当然,没达到“能直接取代人”的程度……

娱乐方面也有:
同上,视频插帧、超分辨率等,但也可以运用于实时游戏中,例如 SDR 游戏画面转 HDR ( Windows AutoHDR )、游戏超分辨率( DLSS 2 )、游戏插帧( DLSS 3 )、优化光追效果( DLSS 3.5 )

这些技术虽然有传统算法实现的替代方案,但是质量不如基于神经网络的……

还有很多不用显卡就能搞定的,例如歌声合成(像 Synthesizer V 这样的软件),语义分割,光学字符识别,语音识别等等。

最大的开源端到端的语音识别有 Whisper ,只要消费级显卡就可以跑了。

用不那么大的 LLM (~13B ,量化以后可以用消费级显卡跑)跑文本翻译之类的任务,也能满足不少需求。


如果是指训练模型,公司就有用 3090 、4090 来训练的模型,做下游任务的微调还真能用。
195 天前
回复了 mogutouer 创建的主题 Apple AI 开发时代, APPLE MAC 落后了
@mumbler 能跑其实很容易,只是跑得快不快……
用 cpu 就能跑,而且也有 1.2~1.4token/s
195 天前
回复了 mcryeasy 创建的主题 MacBook Pro MacBook Pro M1 外接 红米显示器时会变灰
解决方法(非常折腾):
https://gist.github.com/GetVladimir/c89a26df1806001543bef4c8d90cc2f8

这个问题的原因是 macOS 输出了有限范围的色彩(把显示器当做电视机识别,RGB 范围是 16~232 )
而且 Type-C 输出也会这样,按理来说,不应该出现这种情况才对:

https://discussions.apple.com/thread/252439407?sortBy=best&page=1


有些显示器看起来没问题,那是因为这些显示器可以自动检测输入的 RGB 范围,然后把 16 映射为 0 ,把 232 映射为 255 。看起来好像是“正常”了,但实际上色彩精度依然有损失……
196 天前
回复了 mailke 创建的主题 MacBook Pro 用 Mac,真的能够更好学 it 吗
虽然听起来不可思议,但我的计算机入门还真是通过山寨版 FC 学会的……
就是 20 多年前的那种“学习机”。

还学会了盲打,把盲打的速度练到了每分钟 100 个正确的英文字母的程度。
@PDX 其实再往前几年,用 MacBook 看 B 站视频的时候,风扇的声音跟飞机引擎差不多
除非用插件把播放器替换成 html5 ,这样才能好不少
1 ... 4  5  6  7  8  9  10  11  12  13 ... 86  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1199 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 29ms · UTC 18:22 · PVG 02:22 · LAX 10:22 · JFK 13:22
Developed with CodeLauncher
♥ Do have faith in what you're doing.