orzorzorzorz 最近的时间轴更新
orzorzorzorz

orzorzorzorz

V2EX 第 368561 号会员,加入于 2018-12-06 18:49:58 +08:00
今日活跃度排名 4133
orzorzorzorz 最近回复了
1 小时 9 分钟前
回复了 johnny2inc 创建的主题 生活 大家害怕死亡吗?
主页里一些淡漠死亡的回复,在我看来是一种 aop 式的傲娇:认为活着或者死了,都是一个切面、一个瞬间的事,这怎么作得了真?你 debug 过了么就部署,我人都麻了...
不过能引起讨论,能让人稍稍面对一下自己,也是有意义的。
1 小时 15 分钟前
回复了 johnny2inc 创建的主题 生活 大家害怕死亡吗?
记得有谁说过,精神上的我想死,但肉体上的我在阻止我死,两者都是我,所以我是不知道自己怕不怕死的。就像世上大多数事,是没法直接用与或非门那么简单得出结果的。哪怕未来碰上什么在当时看来特别有价值、可以为之赴死的事,在现在的我看来,那也只是激素分泌导致的情绪亢奋,让身体不怕死了而已。

我花了挺长时间去看别人是怎么面对死亡的,但都如同隔靴止痒,既无法驱散我对死亡的恐惧,也无法驱动我做些什么,让生命变得更有意义些。后来我只能认为,针对死亡本身这件事的讨论,就像是问“人生的意义是什么”一样,是没什么意义的。除了自杀,你不大可能知道自己什么时候、会因为什么缘故死了,你无法提前得知临死前的自己会有哪些想法;而如果是自杀,就意味着放弃了在之前的时间里延续下来的“活着”的习惯,认为活着并没有什么深刻的理由。而此时对生死的讨论,更是一种“人间不值得”式的招认。

对于这个问题的讨论可以作为一项长期任务。先从列出一些自己不讨厌的事,去试着做一做。就像升级似的,当经验条在日复一日的微小选择中悄然增长,或许某天回望时会发现自己,不会因为踟蹰不前、患得患失而遗憾,也不会因为曾经在生死或意义的迷雾中徘徊太久而感到懊恼。这些微漠的"献祭",不是为了证明自己不怕死,而是为了证明自己真的活过。临终时能否说出那番壮丽的宣言并不重要,重要的是在每一个平凡的瞬间,我是否真正地"在场",是否允许自己被生活刺痛,也被生活治愈。
77 天前
回复了 imvkmark 创建的主题 生活 现在年龄大了, 特别想找人聊天...
我回忆了一下,发现自己已经有两三个月没跟人说过除了“放电梯里”跟“谢谢”以外的话了。
罢了,今晚去做个 spa 。
79 天前
回复了 feeeff 创建的主题 问与答 昨天去了红娘会所,有一些信息分享给各位
@zhuanggu 好家伙,到你这打开格局了。
我他妈的就服了。
如果不是对方一定要掩盖自己的情绪,身而为人,我认为是能直接感受到对方的情绪的,所以我认为提出这个问题的同时,楼主就已经凉了。毕竟对线崩了才会来问打野。
再申明一遍:如果女性对你有意,在不是性格特别扭曲的情况下,会主动到让你怀疑人生,会让你怀疑是不是这逼长在你身上。
他妈的楼主还隐约觉得...好气啊,就像看到以前的自己。
这个操作试试 f12 把所有 html 都复制到 vscode 里,然后按 ctrl+shift+f 全局搜索后,再加正则条件试试。比现做个浏览器扩展舒服不少,也满足主楼里大部分需求了。
楼里这就开始劝人向善了,那先定义一下什么叫善吧。行事前只要能接受要付出的代价,那法无禁止即可为,哪来这么多仁义道德。让和异性接触少的人多条路子,然后跳出来说,哎呀,楼主这路子不正,别去。那若干年后突兀上了相亲或者结婚的船,在识人不明的情况下,让三个钱包直接被掏空么。
在财力足以支撑的情况下,如果没对象,可以尽情体验这种生活方式。甚至可以往上一层,享受集邮的快乐。只想当渣男的人,是当不好渣男的。
多和异性接触,你可以知道她看向你眼里的光到底是真的假的,可以知道多数异性被激素操控时的解决方案,可以知道如何把握双方利益冲突时行事激进程度的尺度。而不是急吼吼地被人手拿把掐,最后在股沟里翻了船。这些东西都是人生路上都可以用到的经验,而不是什么洪水猛兽。
当然,这是在财力允许的情况下,适合被抓去关着不用担心温饱、对常见性病病理传播途径和表象有一定了解的人。至于被骂成瓢虫,这是最不重要的事。知道自己在干什么,知道自己要付出什么代价,那还是法无禁止即可为。怕别干,干中学,学中用,人生路漫漫,多给自己做选项的机会。
140 天前
回复了 ppiop 创建的主题 MacBook Air Mac Air 有必要上 36G 吗?还是 24G 足够
山在那里,谁都没法让你把不爬山的心放回你肚子里去。16G 的卡不是不能接受,但 32G 就在那里,这种诱惑我也感受过,所以我很理解。
也正因为如此,我买了,然后大部分时间吃灰,但也没什么不爽的。
当然了,50 收 16G 二手机,包邮区包邮。
141 天前
回复了 Noby 创建的主题 Local LLM 目前哪个大模型适合本地部署用来纯翻译?
直接下 ollama 上的 qwen3:14b-q4_K_M 或者 gemma3:12b-it-q4_K_M 。两者在 4060Ti 16G 下 no think 的表现挺好,至少体感下,速度快,也没那么多机翻感。
具体讨论可以看看这个 https://github.com/SakuraLLM/SakuraLLM/issues/136 ,能对比一下翻译效果。
146 天前
回复了 lijianan 创建的主题 职场话题 49 年入国军了,打算给女朋友教前端
记得当时我还很老实很龟的时候,试图教某个相亲对象写代码。从 css 这种看得见的开始教,然后发现对方看事物的逻辑挺奇怪的。
比如一扇窗,最外面有窗框,上小下大两块玻璃,下面的玻璃有个左右推窗。这么个结构对方分辨不出来,或者说不愿意认。最开始对方说是想转行,我教她肯定认真学,我就琢磨教一次教不会多来几次呗。后来发现她是真的理解不了 padding 跟 margin 的区别,最后还怪我想控制她。
如果 op 做好了这种被白眼狼的心理准备以及极强的耐心,那可以一试。别问我为什么这么劝 op ,这是真的淋过雨了,而且是酸雨。
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1527 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 21ms · UTC 16:27 · PVG 00:27 · LAX 08:27 · JFK 11:27
♥ Do have faith in what you're doing.