youyongsong 最近的时间轴更新
youyongsong's repos on GitHub
0 人关注
actions
Github Actions
Python · 0 人关注
ArabicNum2RMB
测试题
0 人关注
certmagic-s3
Certmagic S3-compatible driver written in Go | Caddy 证书存储 Certmagic 接口分布式对象存储实现
Go · 0 人关注
community
Kubernetes community content
0 人关注
docs
Repo for Crossplane documentation.
Go · 0 人关注
kube-prompt
An interactive kubernetes client featuring auto-complete.
Go · 0 人关注
kubebuilder
Kubebuilder - SDK for building Kubernetes APIs using CRDs
Go · 0 人关注
kubernetes
Production-Grade Container Scheduling and Management
Go · 0 人关注
kubernetes-event-exporter
Export Kubernetes events to multiple destinations with routing and filtering
Shell · 0 人关注
maglev
:monorail: A Tmux theme made to work together with Bullet train
Python · 0 人关注
notify-webhook
Git post-receive web hook notifier in Python.
C++ · 0 人关注
OfferCode
code playground
HTML · 0 人关注
resume
source code of my resume
Python · 0 人关注
simple-static-generator
A simple static generator
Python · 0 人关注
timelog
A django app that logs work time.
Python · 0 人关注
uam
universal application manager.
0 人关注
uam-core
uam's core taps
Vim script · 0 人关注
uam-tap
personal uam tap
youyongsong

youyongsong

V2EX 第 65170 号会员,加入于 2014-06-16 00:20:20 +08:00
youyongsong 最近回复了
2017-03-14 19:35:58 +08:00
回复了 param 创建的主题 Python 最近用 Python 的 asyncio,有好多不懂。。
说下我对这 python 这几种 web 模型的理解吧:

首先是 http server + wsgi server(container) + wsgi application 这种传统模型吧:
http server 指的是类似于 nginx 或 apache 的服务
wsgi server 指的是类似 gunicorn 和 uwsgi 这样的服务
wsgi application 指的是 flask django 这样的基于 wsgi 接口的框架运行起来的实例
最初这种模型只是为了方便 web 框架的开发者,不需要每个框架层面都去实现一遍 http server ,就增加了一个 WSGI 中间层协议,框架只要实现这个协议的客户端就可以,然后用 wsgi server 去实现 http 协议的解析并去调用客户端(wsgi application)。

为了方便开发,每个框架都内置了一个简易的 wsgi server ,为什么还要用专门的 wsgi server 呢?
wsgi 除了解析 http 协议以及 http 端口侦听外,还负责了流量转发以及 wsgi application 进程管理的功能。一般 wsgi 框架内置的 wsgi server 都是一个单进程,一次只能处理一个请求。而目的通用的 wsgi server(gunicorn, uwsgi)都至少支持 pre fork 模型,这种模型会起一个 master 来侦听请求,并启动多个 slave(每个 slave 是一个 wsgi application), master 负责把请求转发到空闲的 slave 上。除了这种传统的基于进程的 pre fork 同步模型,不同的 wsgi server 也会支持一些其它模型,有基于线程的同步模型,也有基于 asyncio 的异步模型。

这种模型下怎样写异步代码呢?
1. 直接用传统的异步编程(进程,线程,协程),虽然有些 wsgi server 支持 asynio 模型,但是这也需要用户所写的代码做相应的支持。这就导致了如果我们在 wsgi application 的时候不能随便使用线程和异步 IO ,如果用了就需要配置 wsgi server 使其支持我们自己的写法。因此为了使得我们缩写的 application 能部署在任意的 wsgi server(container)中,我们就只能写同步代码了。
2. 使用分布式异步编程,使用类似 celery 的方式,将需要异步处理的东西发送到 worker 去处理。

既然有了 wsgi server ,为什么还要有一个 http server 呢?
主要是因为 wsgi server 支持的并发量比较低,一般会用一个专门的 http server 来做一层缓冲,避免并发量过大时直接服务挂掉。


python 传统的这种 wsgi 模型,主要是为了方便框架开发者只需要专注框架层面,而非 http 处理层面。但这样却增加了服务部署的复杂度,需要同时部署和配置 http server 和 wsgi server ,如果想支持异步还要部署 worker ,而使用 tornado 或 go 开发的应用因为自己实现了高效 http 处理的应用只需要部署自己就可以了。


接下来是 tornado 和 twisted 这种模型:
这种模型和上面的传统模型处于一个时期,这种模型和 nodejs 差不多,都是基于回调的模型,适用于高 IO 低 CPU 的场景。这种模型自己实现了一个基于回调 http server(event loop),每一个请求都被注册成一个异步函数来处理,然后主循环来不断的循环这些函数。这样就和 pre fork 模型有了区别, pre fork 模型中每一个 slave 都是一个 wsgi application ,一个 wsgi application 都只能处理一个请求,而回调模型只有一个线程,不仅极大的减少了内存的分配还减小了进城以及线程间的切换开销,从而可以支持高 IO 并发。但是这种模型也有很明显的缺点,就是一旦应用程序有大量的 CPU 计算,就会让这个线程堵住,所有的请求都会收到影响,如果应用在处理一个请求时崩溃,所有的请求也都会收到影响。


接下来时 aiohttp/sanic 这种模型:
这种模型和 tornada 模型的改进,但实质上是一样的,因为回调的写法不易读也容易出错,于是将回调的写法改成了同步的写法。这种模型和 koa2 和 go net/http 查不多, asyncio 提供了类似 go coroutine 的功能和写法,而 aiohttp 则提供了类似 go 中的 net/http 的 http 处理库。
2016-11-19 14:53:50 +08:00
回复了 kangsgo 创建的主题 Python Python 老司机带我开开车
看上去这些 view 并没有什么真正的业务逻辑,都是 model 驱动的普通的 CRUD ,这样的情况直接用 Django 的 generic views 就行不需要自己写 view 内容。
2016-08-24 09:27:35 +08:00
回复了 stingchen 创建的主题 Python [投票] PyConChina2016 大会纪念 T 恤创意的 Slogan
1
2016-08-03 19:39:36 +08:00
回复了 Tink 创建的主题 Keybase 有 8 个 Keybase.io 的邀请码,有要的木有
@DesignerSkyline youyongsong#gmail.com 求一枚,谢谢!
pattern match
youyongsong
2015-12-21 13:39:41 +08:00
回复了 lycos 创建的主题 健康 有么有觉得带口罩吸霾更多?
@lycos 9.9 一个
2015-12-21 09:41:08 +08:00
回复了 lycos 创建的主题 健康 有么有觉得带口罩吸霾更多?
3M 8210
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5422 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 14ms · UTC 03:32 · PVG 11:32 · LAX 19:32 · JFK 22:32
Developed with CodeLauncher
♥ Do have faith in what you're doing.