RT,我这边在测 celery 的意外容错的强健性的时候,我在每个 worker 强行执行了类似下面的命令:
ps -ef |grep 'worker' | grep -v grep|cut -c 9-16 | xargs kill -9
然后再将我手里的三个 worker 重启:
celery -A hellscan worker -E -l INFO -n xxx.%h --concurrency=2
在我的配置文件里,以前设置过:
TASK_REJECT_ON_WORKER_LOST = True
CELERY_ACKS_LATE = True
按理说是支持这种重启后,会继续加载运行任务的。结果我发现在日志里,worker 并没有失败或者结束。 在 flower 里查看,那几个中断的任务一直处于 STARTED 状态,强行 terminate 也没用。
而且似乎占用了我取得任务的名额,我这里设置--concurrency=2,按理说总共算起来,一共可以同时执行六个任务,flower 里显示的任务里 active 的也没有他们。
丢失了那三个任务,似乎现在只能同时执行三个任务了,
不知道大佬们有没有解决办法?除了重启 flower 以外,我猜这样任务丢失的可能会更多。
1
jesnridy 2019-05-09 11:12:56 +08:00
flower 读得是 redis 的数据
|