网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
06月26日漏签0天
python吧 关注:474,878贴子:1,969,615
  • 看贴

  • 图片

  • 吧主推荐

  • 视频

  • 游戏

  • 2回复贴,共1页
<<返回python吧
>0< 加载中...

想请教大神一个网站抓取内容并存储为excel 的功能

  • 只看楼主
  • 收藏

  • 回复
  • 猫猫niki
  • 进士
    8
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
https://data.eastmoney.com/rzrq/total/all.5.html 有一个很长的数据统计如图

但是这个图片下面有72页,如何用python 一次性保存下来,并存成excel
我用gpt请教了一下 他给我的内容无法执行不知道问题出在哪里?
以下为gpt给出的方案:
我可以帮助编写一个Python脚本,将东方财富网的融资融券数据从每一页自动抓取,并整合到一个Excel文件中。请确保您可以在本地运行Python脚本,因为我无法直接访问和保存完整数据表。
示例Python代码:
import requests
import pandas as pd
from bs4 import BeautifulSoup
# 设置基础URL和表格
url_base = "https://data.eastmoney.com/rzrq/total.html?page="
all_data = []
# 循环获取每页数据(假设有71页)
for page in range(1, 72):
url = f"{url_base}{page}"
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
# 提取数据(请根据实际页面内容修改)
table = soup.find("table") # 找到数据表
rows = table.find_all("tr")
# 每行数据
for row in rows[1:]: # 跳过标题行
cols = row.find_all("td")
data = [col.get_text() for col in cols]
all_data.append(data)
# 转换为DataFrame并保存为Excel
df = pd.DataFrame(all_data, columns=['列1', '列2', '列3']) # 根据实际列名修改
df.to_excel("融资融券数据.xlsx", index=False)
print("数据已保存至 融资融券数据.xlsx")


  • hitzsf
  • 探花
    11
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
你的那个页面链接,用F12看一下呀
在预览里面,啥也没有
而下面这个链接才是实际的数据
https://datacenter-web.eastmoney.com/api/data/v1/get?reportName=RPTA_RZRQ_LSHJ&columns=ALL&source=WEB&sortColumns=DIM_DATE&sortTypes=-1&pageNumber=1&pageSize=240&filter=&callback=jQuery112306183579504194965_1731173722378&_=1731173722380
如果看书的话, 这儿基本都是用 selenium 去做


2025-06-26 18:26:57
广告
  • 猫猫niki
  • 进士
    8
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
谢谢


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 2回复贴,共1页
<<返回python吧
分享到:
©2025 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示