1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > python爬虫scrapy框架无法生成csv文件是怎么回事_python3使用scrapy生成csv文件代码示例...

python爬虫scrapy框架无法生成csv文件是怎么回事_python3使用scrapy生成csv文件代码示例...

时间:2018-10-06 02:06:46

相关推荐

python爬虫scrapy框架无法生成csv文件是怎么回事_python3使用scrapy生成csv文件代码示例...

去腾讯招聘网的信息,这个小项目有人做过,本着一个新手学习的目的,所以自己也来做着玩玩,大家可以参考一下。

这里使用的是调用cmdline命令来生成csv文件,而不是importcsv模块。

from scrapy import cmdline

cmdline.execute("scrapy crawl field -o info.csv -t csv".split())

这段代码我保存在一个自建的.py文件中,然后在主文件中调用这个模块,这样就不用每次在cmd中敲命令了,大家可以使用这种方法我觉得很方便的。

保存的csv文件内容:

我们需要获取的数据首先应该使用scrapy的items容器记录下来:

import scrapy

class GetItem(scrapy.Item):

name = scrapy.Field() #招聘单位

genre = scrapy.Field() #招聘类型

number = scrapy.Field() #招聘人数

place = scrapy.Field() #招聘地点

time = scrapy.Field() #招聘时间

以上为我们等一下需要获取的信息

然后我们新建spider文件来编写爬去网站的代码:

# _*_ coding:utf-8 _*_

import scrapy

from scrapy.http import Request

from time import sleep

import os

import sys

sys.path.append("D:\PYscrapy\get_Field") #我使用这种路径添加的方式来调用GetItem函数和main函数

from get_Field.items import GetItem

import main #main函数开头就说了两行调用程序的代码,你也可以在cmd中使用scrapy crawl field -o info.csv -t csv来调用。主要是方便

class Tencentzhaopin(scrapy.Spider):

name = "field" #这个程序要执行的唯一标识名 可以自己设置

start_urls = ["/position.php?&start=0#a"] #首页网址

url = "/" #由于有翻页操作所以我们设置翻页前缀,等一下获取后缀

count = 0

names = [] #这五个列表记录我们获取的信息

genres = []

numbers = []

places = []

times = []

filename = "data.txt" #保存的文件名

if os.path.exists(filename) == True: #判断这个文件是否已经存在文件夹中,有就移除掉。

os.remove(filename)

def parse(self,response):

self.count += 1 #设置我们需要爬去多少页,不设置的话会有几百页需要爬取

name = response.xpath('//table//td[@class="l square"]//a//text()').extract()

#通过xpath方法获取我们需要的内容,再使用extract()抽取器获取到

for i in name: #利用循环将每一次的内容存入我们上面设置的列表中去,方便后面存入csv文件(下面4个类似)

self.names.append(i)

genre = response.xpath('//table//tr[not(@class="h")]//td[2][not(@align="center")]//text()').extract()

for i in genre:

self.genres.append(i)

number = response.xpath('//table//tr[not(@class="h")]//td[3][not(@align="center")]//text()').extract()

for i in number:

self.numbers.append(i)

place = response.xpath('//table//tr[not(@class="h")]//td[4][not(@align="center")]//text()').extract()

for i in place:

self.places.append(i)

time = response.xpath('//table//tr[not(@class="h")]//td[5][not(@align="center")]//text()').extract()

for i in time:

self.times.append(i)

new_url = response.xpath('//*[@id="next"]//@href').extract()

#前面我们说过需要翻页操作,所以这里是获取到翻页的后缀

new_url = self.url+new_url[0] #再与前缀结合,获取到一个完整的下一页链接

sleep(0.5) #我们设置一个翻页的时间,太快了不好。。。。(我是这样想的)

#下面就是信息存入items容器

for i in range(len(self.genres)): #for循环列表的长度,获取到所有信息

info = GetItem() #实例一个类info用来保存数据

info["name"] = self.names[i] #将每一个属性列表中的每一个数据保存依次保存到info中去

info["genre"] = self.genres[i]

info["number"] = self.numbers[i]

info["place"] = self.places[i]

info["time"] = self.times[i]

yield info #这个yield注意了,嗯,这就很舒服了

#我们将每一次保存的数据返回,但是返回了我们还需要程序继续执行,所以使用yield函数返回后继续执行

if self.count<=20:

yield Request(url=new_url,callback=self.parse)

#如果满足20页以内,我们callback返回下一页的链接继续到parse这个默认函数,

以上是spider中的代码。

其实实现这个代码不难,唯一有一点小疑惑的地方可能就是第一个yield的使用,一开始我是使用调用一个新的函数,然后在里面实现值的返回,但是麻烦还有一点小问题,所以这里我们就是用这种简单的方式就行了,yield将每次循环的数据返回,返回后再继续执行循环。

总结

以上就是本文关于python3使用scrapy生成csv文件代码示例的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站其他相关专题,如有不足之处,欢迎留言指出。感谢朋友们对本站的支持!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。