python爬虫URL重试机制的实现-创新互联
python爬虫URL重试机制的实现?相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。
成都创新互联公司是专业的齐河网站建设公司,齐河接单;提供成都网站建设、网站设计,网页设计,网站设计,建网站,PHP网站建设等专业做网站服务;采用PHP框架,可快速的进行齐河网站开发网页制作和功能扩展;专业做搜索引擎喜爱的网站,专业的做网站团队,希望更多企业前来合作!python2.7实现:
# -*-coding:utf-8-*- """ ayou """ import requests def url_retry(url,num_retries=3): print("access!") try: request = requests.get(url,timeout=60) #raise_for_status(),如果不是200会抛出HTTPError错误 request.raise_for_status() html = request.content except requests.HTTPError as e: html=None if num_retries>0: #如果不是200就重试,每次递减重试次数 return url_retry(url,num_retries-1) #如果url不存在会抛出ConnectionError错误,这个情况不做重试 except requests.exceptions.ConnectionError as e: return return html url_retry("http://httpbin.org/status/404")
python3.5实现:
# -*-coding:utf-8-*- """ ayou """ import asyncio import aiohttp async def print_page(url,num_retries=3): async with aiohttp.ClientSession() as session: try: async with session.get(url,timeout=60) as response: print("access!") #raise_for_status(),如果不是200会抛出HttpProcessingError错误 response.raise_for_status() body = await response.text() except aiohttp.errors.HttpProcessingError as e: body = None if num_retries > 0: #如果不是200就重试,每次递减重试次数 return await print_page(url, num_retries - 1) #不存在URL会抛出ClientResponseError错误 except aiohttp.errors.ClientResponseError as e: return e session.close() print(body) return body def main(): #这是一个不存在URL # url = 'http://httpbin.org/status/404111' #这是一个404的URL url = 'http://httpbin.org/status/404' loop = asyncio.get_event_loop() loop.run_until_complete(print_page(url)) loop.close() if __name__ == '__main__': main()
爬虫URL重试机制封装成修饰器(python2.7以及python3.5以上)
python2.7版本:
# -*-coding:utf-8-*- """ ayou """ import requests #定义一个重试修饰器,默认重试一次 def retry(num_retries=1): #用来接收函数 def wrapper(func): #用来接收函数的参数 def wrapper(*args,**kwargs): #为了方便看抛出什么错误定义一个错误变量 last_exception =None #循环执行包装的函数 for _ in range(num_retries): try: #如果没有错误就返回包装的函数,这样跳出循环 return func(*args, **kwargs) except Exception as e: #捕捉到错误不要return,不然就不会循环了 last_exception = e #如果要看抛出错误就可以抛出 # raise last_exception return wrapper return wrapper if __name__=="__main__": @retry(5) def url_retry(url): request = requests.get(url, timeout=60) print("access!") request.raise_for_status() html = request.content print(html) return html url_retry("http://httpbin.org/status/404") # url_retry("http://httpbin.org/status/404111") # url_retry("http://www.baidu.com")
python3.5以上版本:
# -*-coding:utf-8-*- """ ayou """ import aiohttp,asyncio #定义一个重试修饰器,默认重试一次 def retry(num_retries=1): #用来接收函数 def wrapper(func): #用来接收函数的参数 def wrapper(*args,**kwargs): #为了方便看抛出什么错误定义一个错误变量 last_exception =None #循环执行包装的函数 for _ in range(num_retries): try: #如果没有错误就返回包装的函数,这样跳出循环 return func(*args, **kwargs) except Exception as e: #捕捉到错误不要return,不然就不会循环了 last_exception = e #如果要看抛出错误就可以抛出 # raise last_exception return wrapper return wrapper async def print_page(url): async with aiohttp.ClientSession() as session: async with session.get(url,timeout=60) as response: print("access!") #raise_for_status(),如果不是200会抛出HttpProcessingError错误 response.raise_for_status() body = await response.text() session.close() print(body) return body @retry(5) def loop_get(): # url = "http://www.baidu.com" # url = 'http://httpbin.org/status/404111' url = 'http://httpbin.org/status/404' loop = asyncio.get_event_loop() loop.run_until_complete(print_page(url)) loop.close() if __name__ == '__main__': loop_get()
看完上述内容,你们掌握python爬虫URL重试机制的实现的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注创新互联行业资讯频道,感谢各位的阅读!
网站名称:python爬虫URL重试机制的实现-创新互联
本文链接:http://azwzsj.com/article/hhpij.html