首页   注册   登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python 学习手册
Python Cookbook
Python 基础教程
Python Sites
PyPI - Python Package Index
http://www.simple-is-better.com/
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
SpiderXiantang
V2EX  ›  Python

scrapyd 怎么可以让爬虫定时采集

  •  
  •   SpiderXiantang · 2018-08-14 18:03:18 +08:00 · 2362 次点击
    这是一个创建于 532 天前的主题,其中的信息可能已经有所发展或是发生改变。

    看了一下 scrapyd 的 api 感觉功能好少啊 而且对分布式也没有支持 我现在遇到的问题是是需要采集一家电商网站 然后反复爬取 进行价格的监控 请问下有没有大佬有思路

    5 回复  |  直到 2018-11-14 23:56:16 +08:00
    SpiderXiantang
        1
    SpiderXiantang   2018-08-14 18:10:42 +08:00
    还有就是如何同时启动分布式爬虫 求思路!
    zzj0311
        2
    zzj0311   2018-08-14 21:44:31 +08:00 via Android
    crontab 了解一下?
    masha
        3
    masha   2018-08-15 00:13:03 +08:00
    分布式可以试试 scrapy-redis
    SpiderXiantang
        4
    SpiderXiantang   2018-08-15 09:15:09 +08:00
    @masha 我用的 scrapy-redis 但是不知道怎么协同启动爬虫 我需要反复的监控这个网站
    my8100
        5
    my8100   2018-11-14 23:56:16 +08:00
    @SpiderXiantang 如何简单高效地部署和监控分布式爬虫项目 https://www.v2ex.com/t/507933
    关于   ·   FAQ   ·   API   ·   我们的愿景   ·   广告投放   ·   感谢   ·   实用小工具   ·   1550 人在线   最高记录 5168   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.3 · 23ms · UTC 01:26 · PVG 09:26 · LAX 17:26 · JFK 20:26
    ♥ Do have faith in what you're doing.