如何爬取分页数据

发布网友

我来回答

2个回答

热心网友

1. 寻找分页地址的变动规律 2. 解析网页,获取内容,放入自定义函数中 3. 调用函数,输出分页内容
详细解说:
1. 首先插入用到的库:BeautifulSoup、requests
1 from bs4 import BeautifulSoup
2 import requests
2. 观察地址的变化规律,可以看到,每切换一页时,后面“createTimeDesc-1.html”中的数字1会随着页面的变动而变动,此时我们将地址存放进列表中,后面用format()和for循环来实现多个地址的存储。
1 urls = ['list-direct-all-performance-1-createTimeDesc-{}.html'.format(str(i)) for i in range(1,11)]
2 print(urls)
此时可以先print下,看地址是否正确,这里range(1,11)是前10个页面的地址。
3. 接下来定*析函数,参数data的初始值为空。函数内用到的内容和上一篇文章中讲到的相同。先请求urls,然后用BeautifulSoup解析,筛选我们想要的项目标题titles的位置,实现输出。
复制代码
1 def get_titles(urls,data = None):
2 web_data = requests.get(urls)
3 soup = BeautifulSoup(web_data.text, 'lxml')
4 titles = soup.select(' h3 > a > em > strong')
5 for title in titles:
6 data = {
7 'title': title.get_text()
8 }
9 print(data)
复制代码
4. 最后,我们来调用函数。
1 for titles in urls:
2 get_titles(titles)
完整代码:
复制代码
1 from bs4 import BeautifulSoup
2 import requests
3
4 urls = ['list-direct-all-performance-1-createTimeDesc-{}.html'.format(str(i)) for i in range(1,11)]
5 # print(urls)
6
7 def get_titles(urls,data = None):
8 web_data = requests.get(urls)
9 soup = BeautifulSoup(web_data.text, 'lxml')
10 titles = soup.select(' h3 > a > em > strong')
11 for title in titles:
12 data = {
13 'title': title.get_text()
14 }
15 print(data)
16
17 for titles in urls:
18 get_titles(titles)
复制代码
运行结果(只展示部分):
{'title': '资产融ZT321期'}
{'title': '供应链ZT2923期'}
{'title': '租车融ZT335期'}
{'title': '供应链ZT2922期'}
{'title': '供应链ZT2919期'}

热心网友

第一步:使用爬虫工具获取分页的XPATH
第二步:编写采集规则。
第三步:启用本地采集。

声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com