网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
06月27日漏签0天
python吧 关注:474,902贴子:1,968,854
  • 看贴

  • 图片

  • 吧主推荐

  • 视频

  • 游戏

  • 0回复贴,共1页
<<返回python吧
>0< 加载中...

求大神帮忙看一下,在运行时为啥只保留了最后一张图片

  • 只看楼主
  • 收藏

  • 回复
  • 神童发V
  • 贡士
    7
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
import requests
from requests.exceptions import RequestException
import re
def get_one_page(url):
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) '
+ 'Chrome/55.0.2883.87 UBrowser/6.2.3831.602 Safari/537.36'
}
try:
respones = requests.get(url, headers=headers)
if respones.status_code == 200:
return respones.text
return None
except RequestException:
return None
def parse_one_age(html):
pattern = re.compile('<dd>.*?data-src="(.*?)".*?</dd>', re.S)
items = re.findall(pattern, html)
for item in items:
yield {
item
}
def download_pic(each):
i = 0
for pic_url in each:
print(pic_url)
pic = requests.get(pic_url)
file_path = open('D:\\img_python\\%s.jpg' % i, 'wb')
file_path.write(pic.content)
i = i + 1
def main():
url = 'http://maoyan.com/board/4?'
html = get_one_page(url)
for item in parse_one_age(html):
print(item)
download_pic(item)
if __name__ == '__main__':
main()


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 0回复贴,共1页
<<返回python吧
分享到:
©2025 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示