scrapy简单学习2—解析简单的spider代码

发布时间:2019-06-11 发布网站:脚本宝典
脚本宝典收集整理的这篇文章主要介绍了scrapy简单学习2—解析简单的spider代码脚本宝典觉得挺不错的,现在分享给大家,也给大家做个参考。

学习网站:
麦子学院scrapy
python网络爬虫
解析代码:

import scrapy

From tutorial.ITems import DmItem

class DmozSpider(scrapy.Spider):
    name = "dm" #爬虫名
    Allowed_domains = ["dmoz.org"]#allow_domains是搜索的域名范围,也就是爬虫的约束区域,规定爬虫只爬取这个域名下的网页。
    start_urls = [
        "http://www.dmoz.org/Computers/PRogramming/Languages/Python/Books/",
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
    ]#要爬取的网站
    
    
        #parse解析的方法,
        #调用的时候传入从每一个URL传回的Response对象作为唯一参数,
        #负责解析并匹配抓取的数据(解析为item),跟踪更多的URL。
    def parse(self, response):
        
        #爬取网页所有的ul标签下li标签
        for li in response.xpath('//*[@id="bd-cross"]/fieldset[3]/ul/li'):
            #项目=载入DmItem()类
            item = DmItem()
            #项目['标题']=li标签里面的a标签的文子()
            item['title'] = li.xpath('a/text()').extract()
            #连接=li标签里a标签的href属性
            item['link'] = li.xpath('a/@href').extract()
            #描述=li标签里的text()
            item['desc'] = li.xpath('text()').extract()
            
            yield item#返回项目

备注:简单的罗列一下有用的xpath路径表达式

scrapy简单学习2—解析简单的spider代码

脚本宝典总结

以上是脚本宝典为你收集整理的scrapy简单学习2—解析简单的spider代码全部内容,希望文章能够帮你解决scrapy简单学习2—解析简单的spider代码所遇到的问题。

如果觉得脚本宝典网站内容还不错,欢迎将脚本宝典推荐好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。