笨鸟编程-零基础入门Pyhton教程

 找回密码
 立即注册
查看: 6445|回复: 1

[已经解决] scrapy翻页问题:实现不了翻页,第一页 爬完就停止了,检...

[复制链接]

新手上路

Rank: 1

积分
3
发表于 2022-3-7 11:07:58 | 显示全部楼层 |阅读模式
  1. import scrapy
  2. import urllib.parse
  3. import requests

  4. class TbSpider(scrapy.Spider):
  5.     name = 'tb'
  6.     allowed_domains = ['baidu.com']
  7.     start_urls = [
  8.         'https://tieba.baidu.com/mo/q---3237548E300DB3D76551F88E33D2ABB1%3AFG%3D1--1-3-0--2--wapp_1548077552162_707/m?kw=%E9%92%A6%E5%B7%9E%E5%AD%A6%E9%99%A2&lp=5011&lm=&pn=0'
  9.     ]

  10.     def parse(self, response):
  11.         i_list = response.xpath('//div[contains(@class,"i")]')
  12.         for i in i_list:
  13.             item = {}
  14.             item['title'] = i.xpath('./a/text()').extract_first()
  15.             item['href'] = i.xpath('./a/@href').extract_first()
  16.             item['href'] = urllib.parse.urljoin(response.url, item['href'])
  17.             item['img_list'] = []
  18.             # item['content_list'] = []
  19.             yield scrapy.Request(
  20.                 url=item['href'],
  21.                 callback=self.parse_detail,
  22.                 meta = {'item':item}
  23.             )
  24.         # 列表页下一页
  25.         next_url = response.xpath('//a[text()="下一页"]/@href').extract_first()
  26.         if next_url is not None:
  27.             next_url = urllib.parse.urljoin(response.url, next_url)
  28.             scrapy.Request(
  29.                 url=next_url,
  30.                 callback=self.parse
  31.             )

  32.     def parse_detail(self, response):
  33.         item = response.meta['item']
  34.         # item['content_list'].extend(response.xpath('//div[@class="i"]//text()').extract())
  35.         # item['img_list'] = [urllib.parse.urljoin(response.url,i) for i in item['img_list']]
  36.         # item['img_list'] = [requests.utils.unquote(i).split('src=')[-1] for i in item['img_list']]
  37.         # item['img_list'].extend(response.xpath('//div[@class="i"]/a/@href').extract())
  38.         
  39.         # 详情页下一页
  40.         next_url = response.xpath('//a[text()="下一页"]/@href').extract_first()
  41.         if next_url is not None:
  42.             next_url = urllib.parse.urljoin(response.url, next_url)
  43.             yield scrapy.Request(
  44.                 url=next_url,
  45.                 callback=self.parse_detail,
  46.                 meta={'item':item}
  47.             )
  48.         else:
  49.             print(item)
  50.             # yield item
复制代码


穗文广告灯箱厂已获得悬赏 10 C币

最佳答案

回复

使用道具 举报

新手上路

Rank: 1

积分
2
发表于 2022-3-7 11:08:32 | 显示全部楼层

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|笨鸟自学网 ( 粤ICP备20019910号 )

GMT+8, 2024-12-4 16:33 , Processed in 0.028856 second(s), 25 queries .

© 2001-2020

快速回复 返回顶部 返回列表