<返回更多

写爬虫时,IP经常被封?那么如何正确的搭建属于自己的IP代理池

2020-02-22    
加入收藏

爬虫代理IP池

公司做分布式深网爬虫,搭建了一套稳定的代理池服务,为上千个爬虫提供有效的代理,保证各个爬虫拿到的都是对应网站有效的代理IP,从而保证爬虫快速稳定的运行,当然在公司做的东西不能开源出来。不过呢,闲暇时间手痒,所以就想利用一些免费的资源搞一个简单的代理池服务。

1、问题

写爬虫时,IP经常被封?那么如何正确的搭建属于自己的IP代理池

 

  启动ProxyApi.py后即可在浏览器中使用接口获取代理,一下是浏览器中的截图:
  index页面:

写爬虫时,IP经常被封?那么如何正确的搭建属于自己的IP代理池

 

  get页面:

写爬虫时,IP经常被封?那么如何正确的搭建属于自己的IP代理池

  get_all页面:

私信小编01 领取完整项目代码!
  

写爬虫时,IP经常被封?那么如何正确的搭建属于自己的IP代理池

 

  爬虫中使用,如果要在爬虫代码中使用的话, 可以将此api封装成函数直接使用,例如:

import requests
def get_proxy():
 return requests.get("http://127.0.0.1:5000/get/").content
def delete_proxy(proxy):
 requests.get("http://127.0.0.1:5000/delete/?proxy={}".format(proxy))
# your spider code
def spider():
 # ....
 requests.get('https://www.example.com', proxies={"http": "http://{}".format(get_proxy)})
 # ....

6、最后

  时间仓促,功能和代码都比较简陋,以后有时间再改进。喜欢的在github上给个star。感谢

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>