# 需要的库 import requests from lxml import etree from multiprocessing import pool import os # 请求头 headers = { 'user-agent': 'mozilla/5.0 (windows nt 6.1; wow64) applewebkit/537.36 (khtml, l...
爬取的内容:书籍名称,作者名称,书籍简介,全书网5041页大约16万条数据,写入mysql数据库和.txt文件 1,创建scrapy项目 scrapy startproject numberone 2,创建爬虫主程序 cd numberone scrapy genspider quans...