V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  anubu  ›  全部回复第 8 页 / 共 32 页
回复总数  632
1 ... 4  5  6  7  8  9  10  11  12  13 ... 32  
能 ping 通是个好现象,可能是 gitlab 本身有 IP 限制。参考官方文档: https://docs.gitlab.com/ee/administration/settings/visibility_and_access_controls.html#configure-globally-allowed-ip-address-ranges

另外,私接路由的行为容易招公司网管痛恨。
每个人使用习惯不同,个人体验,海报墙和 kodi 都不好用。电视自带播放器挂 SMB 或 NFS ,直接目录浏览播放最好用。没那么高大上,贵在实用。主要看国内剧集,看完就删,折腾那一套不值当。
这两天刚好在调 MaxRAMPercentage 这个参数,在 JVM 没有 OOM 时 Pods 频繁 OOMKilled ,一般都是 MaxRAMPercentage 配置过高,需要根据自己的场景简单压测一下,目前配置在 65 左右比较合适。

limit 还是要限制一下,配置太大就没意义了,不好计算集群内存超配情况,也增加了不稳定性。超配太多争用的概率就高,驱逐就容易发生。驱逐还有滞后性,很多时候驱逐还没开始,因为节点内存不足,负载就拉上天了,然后就节点瘫了。
2024-01-10 17:01:21 +08:00
回复了 vocaloid 创建的主题 随想 人类本来就是双标的
其实是个标准定义问题,如果标准是“以我为准”“以我的利益为准”“以我想怎么说怎么说为准”,那就没有双标了。诡辩一说。

网络对喷时,“脑臀分离”是用来攻击别人发表了背叛自己利益的言论,“屁股决定脑袋”是用来攻击别人发表了以自己利益为准的言论。这种怎么说都可以的词汇还是挺多的。词汇使用还是要看场景,看上下文的。

“双标”这个词应该是拿来攻击别人的,不是拿来自省的,OP 似乎用错了地方。

就自省来说,一个合理的标准应该是自洽,符合自己价值观的自洽。不用太关心表面的标准是什么样的,如果不能让你的价值观自洽,就会一直很难受。如果让你自洽的标准在表面上是如此明显的“双标”,要么自省修正,要么表面上包装一下,都算是解决方案。
2024-01-10 16:43:12 +08:00
回复了 cheneydog 创建的主题 随想 云桌面这种东西应该秒级付费才合用,包年包月都垃圾。
云服务器有停机不计费,就是停机了计算资源不收费,存储继续计费。但并不影响其它收费模式。
云桌面应该支持按量计费以及停机不计费,但肯定不能取消包年包月,因为从时长单价来看,包年包月肯定比按量便宜的,最终是要看总体成本以及对弹性的需求来选择包月还是按量。
2024-01-10 16:14:59 +08:00
回复了 fdghjk 创建的主题 程序员 怎么搭建自己的 Docker-hub 镜像源,本地搭一个得了 自己用!
关键词:pull-through cache
官方文档: https://docs.docker.com/docker-hub/mirror/
2024-01-10 16:04:53 +08:00
回复了 fdghjk 创建的主题 Docker 国内最好用的 Docker 源是哪个 各位
@Masoud2023 明白了,感谢分享。
2024-01-10 15:39:02 +08:00
回复了 fdghjk 创建的主题 Docker 国内最好用的 Docker 源是哪个 各位
@Masoud2023 可能太久没折腾 docker 环境了,请教一下最新的使用 docker 拉取 ghcr.io 仓库镜像的方法。现在已经改一下 JSON 就可以拉取了吗?以前还是要在 daemon 上挂代理才可以。
2024-01-10 12:37:46 +08:00
回复了 fdghjk 创建的主题 Docker 国内最好用的 Docker 源是哪个 各位
很久没用了,印象中没有特别好用的。

就拉取镜像来说,docker 的 registry mirror 算不上好的实践。因为仅支持 docker.io ,就算配置了好的 mirror ,gcr\ghcr\mcr\quay 等仓库还是拉取不到。只用 dockerhub 镜像的话应该还能接受。
使用代理是一个选择,但 docker 的代理稍微复杂,要先理清楚 docker client 、docker daemon 、docker container 代理的区别和配置方法。
有点重,移动的时候保护好手、脚、腰,避免受伤。
2024-01-04 17:24:14 +08:00
回复了 sixlione 创建的主题 程序员 请问各位 V 友,现在哪个部署本地的 LLM 比较好?
这个硬件配置无法满足训练,不加硬件的话只能勉强跑推理,需要附加自有知识就套一个 RAG 的前台。显存太小了,跑起来很勉强,需要仔细调一调向量模型和大语言模型,尽量维持显存不爆。
如果就是想部署起来玩一玩的场景,不仅仅是 requirements.txt ,其它的 package.json 、pom.xml 就算好点也有限,在 Dockerfile 面前都要低头。容器部署对于爱折腾部署的人就是福音,再也看不到玩具 A 和玩具 B 打起来逼你选边站的场景了,成年人主打一个全都要。
@yinft 不好意思,没有特别的资料。可以简单的按照官方文档拉一个容器看看,基本的监控应该都有的,更详细可能要看官方文档了。
2024-01-03 16:17:33 +08:00
回复了 Triump 创建的主题 程序员 实现一个企业内部知识库的问答机器人
前台项目主要有 FastGPT 和 langchain-chatchat ,基本都能开箱即用。FastGPT 完成度更高一些,但商业考量也多一些。进一步调优可能还是要看底层框架,langchain 、llama-index 等。有能力的话自己拿框架搓一个前台也可以。

模型还是看算力看规模,知识库类的一般要求不高。企业内部可能要自部署模型,chatglm3 、千问都可以,千问似乎更好一些。

关键词:RAG

真正落地能用还是要了解 RAG 应用的基本架构,各个流程节点也有很多优化措施值得摸索。
netdata 应该能满足要求。
https://github.com/netdata/netdata
1 ... 4  5  6  7  8  9  10  11  12  13 ... 32  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5905 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 70ms · UTC 02:27 · PVG 10:27 · LAX 18:27 · JFK 21:27
♥ Do have faith in what you're doing.