利用Python爬虫怎么获取重定向后的url-创新互联

这期内容当中小编将会给大家带来有关利用Python爬虫怎么获取重定向后的url,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

创新互联网站建设公司一直秉承“诚信做人,踏实做事”的原则,不欺瞒客户,是我们最起码的底线! 以服务为基础,以质量求生存,以技术求发展,成交一个客户多一个朋友!专注中小微企业官网定制,成都做网站、成都网站建设,塑造企业网络形象打造互联网企业效应。

方法(一)


# 获得重定向url
 from urllib import request
 # /tupian/20230522/681501874175782812.html
 url = "https://www.baidu.com/link?url=IscBx0u8h9q4Uq3ihTs_PqnoNWe7slVWAd2dowQKrnqJedvthb3zrh9JqcMJu3ZqFrbW_DKVuTnTypDbMkZx_hwCQIGFPRVWGyxRXA-65jK&wd=&eqid=f7aeecba00092ed7000000065ec62596"
 print(request.urlopen(url).geturl())

方法(二)

# 请求头,这里我设置了浏览器代理
 headers = headers = {'User-Agent': 'xx'}
 # 这里chrome的user-agent获取方式:在浏览器地址栏输入 about://version 即可得到结果
 url = "https://www.baidu.com/link?url=IscBx0u8h9q4Uq3ihTs_PqnoNWe7slVWAd2dowQKrnqJedvthb3zrh9JqcMJu3ZqFrbW_DKVuTnTypDbMkZx_hwCQIGFPRVWGyxRXA-65jK&wd=&eqid=f7aeecba00092ed7000000065ec62596"
 # 请求网页
 response = requests.get(url, headers=headers)
 # print(response.status_code) # 打印响应的状态码
 print(response.url) # 打印重定向后的网址

# 两个结果都是:/tupian/20230522/681501874175782812.html

上述就是小编为大家分享的利用Python爬虫怎么获取重定向后的url了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注创新互联行业资讯频道。


新闻名称:利用Python爬虫怎么获取重定向后的url-创新互联
网址分享:http://azwzsj.com/article/iegoj.html