首页   注册   登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
zdnyp
V2EX  ›  程序员

scrapy 的 crawlspider 中 deny 的设置无效?

  •  
  •   zdnyp · 2019-01-02 13:34:36 +08:00 · 635 次点击
    这是一个创建于 380 天前的主题,其中的信息可能已经有所发展或是发生改变。

    在 Rule 中设置了 deny,但是并未生效:

    代码如下: '123123':( Rule(LinkExtractor(allow='\d+-\d+-\d+/.*?-.*?.shtml', deny=('http://search.******.com.cn/.*?')), callback='parse_item', follow=True), Rule(LinkExtractor(allow='a[href^="http"]',deny_domains=('http://auto.******.com.cn')), follow=True) )

    运行的时候还是有 debug 禁止的链接: 是这样插入图片么

    第 1 条附言  ·  2019-01-02 16:47:40 +08:00
    没人来消灭一下零回复么...
    目前尚无回复
    关于   ·   FAQ   ·   API   ·   我们的愿景   ·   广告投放   ·   感谢   ·   实用小工具   ·   2579 人在线   最高记录 5168   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.3 · 22ms · UTC 02:59 · PVG 10:59 · LAX 18:59 · JFK 21:59
    ♥ Do have faith in what you're doing.