V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  star7th  ›  全部回复第 18 页 / 共 55 页
回复总数  1084
1 ... 14  15  16  17  18  19  20  21  22  23 ... 55  
这个命令放在笔记里记着。每到一个环境,无论是本机还是服务器,都用得上。
直接在命令行运行 npm config set registry https://registry.npmmirror.com


不要再折腾!
不要再折腾!
别听其他乱七八糟的建议。
鉴于你能提出这个问题,估计是个新手。对新手来讲,直接执行我上面说的命令就是最省事的方式。也不用去追究什么原理。
没啥不良影响,你可以这么用。
第一种 await 的方式顺序执行,一个执行完成再执行另一个。
第二种方式是,并发执行,等到最后一个结果执行完毕后,再按顺序返回执行结果数据。

一个是顺序执行,一个是并发执行,当然快了很多。
2022-11-22 17:31:31 +08:00
回复了 fenglayting 创建的主题 程序员 2023 PHPer 路在何方?
我的转型路线供参考。我在几年前是职业 php 开发。现在已转前端好几年了,也会做 nodejs 开发, 基本可以算个全栈吧 。

不过大多数 phper 都很难复制我的路线。因为我开发开源项目 https://github.com/star7th/showdoc 可以大量累积前端开发经验(这个项目的重心在前端),要转是很容易的。而据我所知大部分 phper 只是会一点前端,真要写 js 和 css 会巨痛苦。

如果你对后端更感兴趣,则可以考虑转 java 和 go 。无论转型前端还是后端,我觉得都需要累积足够的经验,否则你在新的赛道会落后于人。建议可以搞搞开源项目。

我现在依然还会做一些 php 开发。旧框架需要维护,新框架都统一用 laravel 系列,坚决不碰 swoole 这种写法诡异的框架(有异步和协程的需求我会用 node 来写)。

我对 php 要求性能低,够用即可。高性能的场景我会用 nodejs 处理。实际上, 我的另一个项目 https://www.dfyun.com.cn/ 就是用 nodejs 写的 , 已经经得起生产环境大流量高并发的考验 。 这种高密集 io 型应用,php 搞不定或者需要花巨大成本才能搞定。

对于市场,我也很迷惑。按道理说,小型创业公司用 laravel 系列是非常方便的,可以快速成型。性能也不算很差,有优化空间。用户量三十万以下的场景理论上都能很好应对。而要更大的话,应该公司已经赚钱了,这个时候有技术团队,做啥都行。所以理论上 php 应该有足够施展空间。但是我看到非常多的小公司或者大公司,更多用 php 来做管理后台这种无关紧要的场景。
也许我孤陋寡闻,尚不提国外情况吧,毕竟国外那么多国家,也许存在一些我不知道的软件项目。

就国内而言,你如果要求必须开源自部署,要求免费,那么,showdoc 是最好的选择之一了 https://github.com/star7th/showdoc

其他的方案,可能都需要你另外付出额外很多时间精力成本。(付费或者二次开发)。
2022-11-21 13:52:56 +08:00
回复了 op351 创建的主题 云计算 求推荐提供 gpu 计算租赁的平台
国内的带宽巨贵。国内如果想做到不限带宽,基本上就是天价要求了。便宜不到哪里去。便宜的就会受限制
@villivateur 我就是开发者,我只是碰得少硬件。如果你不考虑像我这种软件开发工程师(同时是硬件小白),那你的受众会非常非常小
2022-11-21 09:20:38 +08:00
回复了 hzcer 创建的主题 分享创造 做了一个快速(300M+)、不贵($1/TB)的文件下载分发服务
我再看了下,你这个仅仅做反向代理,不做内容缓存或者托管啊。这样算下来,源服务器的成本和带宽都可能成为瓶颈了。
你多进程反向代理我源站,速度也是取决我的源站速度。而且流量层面都是要走一遍我的源站,我得付两次流量费用。
再者,下载文件不能直接弹出来,需要等然后再点击一下,用户体验没那么友好。
感觉链接 wifi 和配置还是不够方便。可以参考一些智能硬件的配置方式,对新手比较友好。
价格的话,我倒不是很敏感。
内置电池还是有一点必要性,毕竟如果只能放在插座旁边,则便携性大大降低。但好像电池又撑不了多久。
2022-11-21 09:01:18 +08:00
回复了 hzcer 创建的主题 分享创造 做了一个快速(300M+)、不贵($1/TB)的文件下载分发服务
思路很好,国外的机器都能多线程到这个速度,确实让人眼前一亮。
搭车宣传下,如果有需求国内网络的便宜 cdn 需求可以看看这个 https://www.dfyun.com.cn
速度没有 lz 的文件下载分发快,不适合大型文件。但是国内线路稳定可靠,可用作各种小文件加速。
2022-11-18 10:46:48 +08:00
回复了 ggp1ot2 创建的主题 程序员 小团队的相关文档如果想部署成网页应该用什么方案?
建议使用 showdoc https://github.com/star7th/showdoc 开源免费私有部署。
2022-11-18 09:08:26 +08:00
回复了 daimaosix 创建的主题 分享发现 腾讯云 CDN 新增按 HTTPS 请求数收费规则
dfyun 云 不收取请求费用
而且流量费还比腾讯云低,可以看一下

https://www.dfyun.com.cn
2022-11-16 12:06:18 +08:00
回复了 coldmonkeybit 创建的主题 程序员 请教一下, nodejs/express 是如何处理多个请求的
2022-11-16 11:40:54 +08:00
回复了 233373 创建的主题 程序员 各位程序员都自己部署了那些似有服务?
说到这个,我也有不少经验。我搭建的服务有些是自用,有些也会提供公开使用。

搭建了 showdoc , 用来写文档 https://github.com/star7th/showdoc

搭建了 k8s + rancher , 作为各种服务的承载体。

搭建了 gaoyixia 内网穿透服务 https://www.gaoyixia.com

搭建了 htq 用作轻量级任务队列服务 https://github.com/star7th/htq

搭建了消息推送服务 https://push.showdoc.com.cn

搭建了截图服务 https://www.showdoc.com.cn/screenshot

搭建了 v2ray 用作翻墙

搭建了 jellyfin 用来看电影

搭建了 frp 用来远程控制和内网穿透

搭建了 nextclound 私有云

还有好几个不方便在这里公开的小服务。
2022-11-16 11:26:45 +08:00
回复了 coldmonkeybit 创建的主题 程序员 请教一下, nodejs/express 是如何处理多个请求的
我没有认真去钻研底层,大多情况下只是一个使用者。但根据我对 nodejs 使用经验,大概是:
在同一个进程里,请求确实是异步处理的。await 挂起一个后,cpu 会处理另一个。但由于很快,所以你可以理解为“接近是同时处理的” 。对不同的两个用户来讲,同时访问 node 接口并没有什么明显延迟感觉 。
如果你是追求非常高的”同时“,那可以多进程处理。比如 eggjs 就可以起多个 work 进程。
好像新出一种特性,可以更细粒度在单进程里模拟多进程,减少进程切换成本。但是没太细了解。总之,如果你要追求高度同步处理,就起多个进程就行。
搭车宣传下我这个开箱即用的服务工具 https://push.showdoc.com.cn 优点是开箱即用,不需要配置麻烦,也不支持太多功能,就简简单单的推送。
2022-11-15 17:32:41 +08:00
回复了 ares951753 创建的主题 程序员 有哪些支持私有化部署的文档服务
showdoc 完全免费开源,可私有部署。
2022-11-15 17:32:13 +08:00
回复了 ares951753 创建的主题 程序员 有哪些支持私有化部署的文档服务
感觉你还是有点飘。毫无前端基础,居然只想凭看视频的小几个月就能玩转前端。你太小看前端了吧。
让你男朋友手把手教你吧。学好点,下一步做个开源项目,或者找到小公司练练手混经验。一定要实战,切勿停留在理论阶段。
我不觉得是简历问题,我更觉得你本身前端水平没过关,也确实缺乏经验。甚至连练手的 demo 项目你都没写过几个。谁都不太敢雇佣你呀。公司雇佣人是雇来干活的,不是手把手教你还要给你工资的。
2022-11-15 17:16:27 +08:00
回复了 dafuyang 创建的主题 程序员 兄弟们, https 网站有办法访问 http 资源吗
充值十块钱能搞定的事情,建议不要折腾。把精力花在业务逻辑上吧
1 ... 14  15  16  17  18  19  20  21  22  23 ... 55  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1023 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 48ms · UTC 20:05 · PVG 04:05 · LAX 13:05 · JFK 16:05
Developed with CodeLauncher
♥ Do have faith in what you're doing.