IP代理软件,http代理,API提取-黑洞HTTP

黑洞HTTP

您的位置: 首页 > 新闻资讯 > HTTP代理 > 正文

python最强的代理池,突破IP的封锁爬取海量数据

发布时间:2019年03月12日 来源:互联网

Python现在非常火,语法简单而且功能强大,很多同学都想学Python!那么如何用Python做一个最强代理池去突破ip的封锁呢?


python最强的代理池,突破IP的封锁爬取海量数据

推荐:一个强大到超乎你的想象的异步IP池项目——async-proxy-pool


随着大型网站反扒机制的增强,更改IP登陆已经成为一种最高效的方式,为此打造一款超强IP池项目,采用最新最快的Python技术——异步(Async )。编写了一个免费的异步爬虫代理池,以 Python asyncio 为基础,充分利用 Python 的异步性能,异步处理比同步处理能提升成百上千倍的效率,速度堪比GO语言。




项目介绍


本项目通过爬虫抓取互联网上免费代理网站的IP,并且进行异步检测是否可用,如果可用就放入数据库。定时对数据库中的代理进行维护,然后通过web api的形式供外部使用。


项目运行环境

项目使用了 sanic,一个异步网络框架。所以建议运行 Python 环境为 Python3.5+,并且 sanic 不支持 Windows 系统,Windows 用户可以考虑使用 Ubuntu on Windows。


总体架构


项目主要几大模块分别是爬取模块,存储模块,校验模块,调度模块,接口模块。

爬取模块crawler.py

负责爬取代理网站,并将所得到的代理存入到数据库,每个代理的初始化权值为 INIT_SCORE。

存储模块database.py

封装了 Redis 操作的一些接口,提供 Redis 连接池。

校验模块validator.py


验证代理 IP 是否可用,如果代理可用则权值 +1,最大值为 MAX_SCORE。不可用则权值 -1,直至权值为 0 时将代理从数据库中删除。

调度模块scheduler.py

负责调度爬取器和校验器的运行。

接口模块webapi.py

使用 sanic 提供 WEB API (服务器提供接口)。


如何使用

安装 Redis

项目数据库使用了 Redis,Redis 是一个开源(BSD 许可)的,内存中的数据结构存储系统,它可以用作数据库、缓存和消息中间件。所以请确保运行环境已经正确安装了 Redis。安装方法请参照官网指南。


项目源码

点击关注、转发、私信小编"史上最强代理池",就能免费获取强大的异步爬虫代理池项目源码。


安装依赖

$ pip install -r requirements.txt

使用API获取代理

运行代码后,访问http://127.0.0.1:5000/进入主页,如果显示'Welcome',证明成功启动。

访问http://127.0.0.1:5000/get可以获取一个可用代理。

也可以在程序代码中用相应的语言获取,例如:

import requests

from bs4 import BeautifulSoup

import lxml


def get_proxy():

 r = requests.get('http://127.0.0.1:5000/get')

 proxy = BeautifulSoup(r.text, "lxml").get_text()

 return proxy

Sanic 性能测试


使用 wrk 进行服务器压力测试。基准测试 30 秒, 使用 12 个线程, 并发 400 个 http 连接。测试 http://127.0.0.1:3289/


$ wrk -t12 -c400 -d30s http://127.0.0.1:3289/

Running 30s test @ http://127.0.0.1:3289/

 12 threads and 400 connections

 Thread Stats Avg Stdev Max +/- Stdev

 Latency 34.63ms 12.66ms 96.28ms 58.07%

 Req/Sec 0.96k 137.29 2.21k 73.29%

 342764 requests in 30.10s, 49.69MB read

Requests/sec: 11387.89

Transfer/sec: 1.65MB

⭐️ Requests/sec: 11387.89


我们看到了什么?平均每秒钟11387.89个请求,就问你们怕不怕。机器性能更好一下,就是一波DOS攻击了。


4实际代理性能测试

实测效果

https://taobao.com(测试淘宝)

测试代理: http://localhost:3289/get/20

测试网站: https://taobao.com/

测试次数: 1000

成功次数: 984

失败次数: 16

成功率: 0.984


https://baidu.com(测试百度)

测试代理: http://localhost:3289/get/20

测试网站: https://baidu.com

测试次数: 1000

成功次数: 975

失败次数: 25

成功率: 0.975


https://zhihu.com(测试知乎)

测试代理: http://localhost:3289/get/20

测试网站: https://zhihu.com

测试次数: 1000

成功次数: 1000

失败次数: 0

成功率: 1.0


可以看到其实性能是非常棒的,成功率极高,如果你想要方便快捷使用高质量代理ip,相信黑洞HTTP可以满足你的需求!


相关文章内容简介

1 python最强的代理池,突破IP的封锁爬取海量数据

Python现在非常火,语法简单而且功能强大,很多同学都想学Python!那么如何用Python做一个最强代理池去突破ip的封锁呢?推荐:一个强大到超乎你的想象的异步IP池项目——async-proxy-pool随着大型网站反扒机制的增强,更改IP登陆已经成为一种最高效的方式,为此打造一款超强IP池项目,采用最新最快的Python技术——异步(Async )。编写了一个免费的异步爬虫代理池,以 Python asyncio 为基础,充分利用 Python 的异步性能,异步处理比同步处理能提升成百上千倍的效率,速度堪比GO语言。项目介绍本项目通过爬虫抓取互联网上免费代理网站的IP,并且进行异步检测是否可用,如果可用就放入数据库。定时对数据库中的代理进行维护,然后通过web api的形式供外部使用。项目运行环境项目使用了 sanic,一个异步网络框架。所以建议运行 Python 环境为 Pyt [阅读全文]

热门标签

最新标签

推荐阅读

  1. 19

    2019-03

    爬虫的第一步就是搭建IP代理池

    代理实际上就是代理服务器, 代理服务器的工作机制很象我们生活中常常提及的代理商,假设你的机器为A机,你想获得的数据由B机提供,代理服务器为C机,那么具体的连接过程是这样的。 首

  2. 15

    2019-05

    哪些因素影响代理IP软件使用效果

    一千个营销人员使用同一款代理IP软件的话,恐怕就会有999种使用感受。之所以会出现这样的结果,这是因为有许多因素会影响到软件使用效果,具体影响因素如下:

  3. 19

    2019-03

    代理IP软件可以隐藏IP地址吗?

    在某些场合(例如论坛发贴时)有些网友希望能隐藏自己的IP地址,以免IP被记下,为安全起见,QQ聊天时也不希望别人知道自己的IP……可是如何在网上隐藏自己的IP地址呢?告诉你,方法很简单,

  4. 26

    2019-03

    没有优质代理IP,爬虫会遇到什么困难

    大数据期间下,爬虫行业放肆生长,其技能日月牙异,从业者如过江之鲫,数不堪数。说到爬虫,就不得不说到署理IP,署理IP是爬虫能代理IP够高速生长的基石,必不可少,没有署理IP,爬虫就

  5. 07

    2019-05

    代理IP出现问题的时候,该怎么解决?

    在IP检验的当时,我门设计构思了1个实体模型用于明确哪些地方IP应当优先检验。实体模型叙述给出:长久要用IP检验工作频率低,长期性无效IP检验评率低。不平稳IP和刚添加的IP检验頻率高。

  6. 01

    2019-04

    爬虫与HTTP代理:离开公司,我也能收入十万

    打开招聘网站一看,爬虫技术工程师的需求量大,且薪资也是十分可观的,都带好几个零。他们如此受宠,在市场环境下,必然是他们有足够的价值。他们的价值到底是什么?仅从采集目标群体