网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
07月26日漏签0天
python3吧 关注:28,526贴子:201,444
  • 看贴

  • 图片

  • 吧主推荐

  • 游戏

  • 8回复贴,共1页
<<返回python3吧
>0< 加载中...

求大神解释下,程序为什么运行后都会多出来几个None?代码如下:

  • 只看楼主
  • 收藏

  • 回复
  • 雾是人非花落
  • 双向链表
    4
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
是获取豆瓣电影top100的信息的
import requests
from bs4 import BeautifulSoup
def get_urls(url):
all_url=[]
for i in range(0,100,25):
if i== 0:
all_url.append(url)
else:
urls='https://movie.douban.com/top250?start={}&filter='.format(i)
all_url.append(urls)
return(all_url)
def get_details(url):
res = requests.get(url)
soup = BeautifulSoup(res.text,'html.parser')
contents =soup.select('.info')
for content in contents:
names = content.select('.title')[0].text
links = content.select('a')[0]['href']
comments = content.select('.rating_num')[0].text
print(names,comments,links)
return
def get_movie(main_url):
all_urls = get_urls(main_url)
print(all_urls)
for url in all_urls:
contents=get_details(url)
print(contents)
main_url='https://movie.douban.com/top250'
info = get_movie(main_url)



  • 星辰守望
  • 栈
    6
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
contents=get_details(url) 是None


2025-07-26 07:51:53
广告
不感兴趣
开通SVIP免广告
  • 贴吧用户_Q8WUe9P
  • 跳跃链表
    5
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
想不出来就decode 吧


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 8回复贴,共1页
<<返回python3吧
分享到:
©2025 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示