IP代理软件,http代理,API提取-黑洞HTTP

黑洞HTTP

您的位置: 首页 > 新闻资讯 > HTTP代理 > 正文

如何鉴别用户有没有使用代理ip?

发布时间:2019年06月15日 来源:互联网

  如何鉴别用户有没有使用代理ip?有时候用代理ip之后,被对方发现了,对方是怎么发现用户使用了代理ip呢?


如何鉴别用户有没有使用代理ip?


  Keep-alive报文:如果带有Proxy-Connection的Keep-alive报文,号位疑问该IP是代理IP。


  反向探测技术:扫描IP是不是开通了80,8080等代理服务器经常开通的端口,显然,一个普通的用户IP不太可能开通如上的端口。


  查看IP上端口:如果一个IP中有的端口大于10000,那么该IP大多也存在问题。


  HTTP头部的X_Forward_For:开通了HTTP代理的IP可以通过此法来识别是不是代理,如果带有XFF信息,说明该IP是代理IP无疑。


  REMOTE_ADDR 是你的客户端跟你的服务器“握手”时候的IP。如果使用了“匿名代理”,REMOTE_ADDR将显示代理服务器的IP。


  HTTP_CLIENT_IP 是代理服务器发送的HTTP头。如果是“超级匿名代理”,则返回none值。同样,REMOTE_ADDR也会被替换为这个代理服务器的IP。


  HTTP_VIA


  $_SERVER['REMOTE_ADDR']; //访问端(有可能是用户,有可能是代理的)IP


  $_SERVER['HTTP_CLIENT_IP']; //代理端的(有可能存在,可伪造)


  $_SERVER['HTTP_X_FORWARDED_FOR']; //用户是在哪个IP使用的代理(有可能存在,也可以伪造)


  $_SERVER['HTTP_VIA'];//是否使用代理


  可见,怎么知道有没有用代理ip?这个问题,平台是可以通过多种方法来检测的,如果想隐藏效果好,就找高匿名的代理ip吧,像黑洞http代理这样的也很好,都是高匿名的。


相关文章内容简介

1 如何鉴别用户有没有使用代理ip?

  如何鉴别用户有没有使用代理ip?有时候用代理ip之后,被对方发现了,对方是怎么发现用户使用了代理ip呢?  Keep-alive报文:如果带有Proxy-Connection的Keep-alive报文,号位疑问该IP是代理IP。  反向探测技术:扫描IP是不是开通了80,8080等代理服务器经常开通的端口,显然,一个普通的用户IP不太可能开通如上的端口。  查看IP上端口:如果一个IP中有的端口大于10000,那么该IP大多也存在问题。  HTTP头部的X_Forward_For:开通了HTTP代理的IP可以通过此法来识别是不是代理,如果带有XFF信息,说明该IP是代理IP无疑。  REMOTE_ADDR 是你的客户端跟你的服务器“握手”时候的IP。如果使用了“匿名代理”,REMOTE_ADDR将显示代理服务器的IP。  HTTP_CLIENT_IP 是代理服务器发送的HTTP头。如果 [阅读全文]

热门标签

最新标签

推荐阅读

  1. 21

    2019-05

    爬虫大数据代理IP使用黑洞HTTP更可靠

    目前爬虫大和大数据采集、分析等领域,在很多时候都需要用到代理IP,以此达到切换IP的目的。切换IP有很多方法,不过目前越来越多的企业级用户选择使用黑洞HTTP,这是为什么呢?

  2. 21

    2019-05

    单独定制高质量的代理IP贵吗?

    现在的网络在给人们带来便利高效的同时,也带来了一些负面的影响,比如某些需要注册很多网站账号的时候就容易丢失密码或者注册不成功。这时候你就要想到代理ip,这是一个主要针对互联

  3. 08

    2019-11

    HTTP报文是什么?

    HTTP报文是有一行一行的简单字符串组成的。HTTP报文都是纯文字,不是二进制代码,所以人们很方便地对其进行读写。那么,今天小编带你了解什么是http报文。

  4. 27

    2019-06

    代理IP安全有没有保障?

    很多时候,互联网给我们带来了很多的便利,同时也给存在着很多漏洞和欺骗,稍微不注意电脑信息就会被丢失,非常的不安全,遇到这样的情况可以选择蚂蚁浏览器代理IP,这样一来安全性能

  5. 11

    2019-06

    如何使用代理IP防止爬虫被封禁?

    对于爬虫被封禁!爬虫一般来说只要你的ip够多,是不容易被封的。一些中小网站要封杀你,他的技术成本也是很高的,因为大多数网站没有vps,他们用的是虚拟空间或者是sae,bae这样的paas云。

  6. 29

    2019-06

    爬虫抓取信息时常见问题

    在Python爬虫抓取信息时,遇到最大问题就是无止无休的网站反爬机制,最大的困扰就是因为本地IP被封禁造成的时间耽误。其实你只是缺少一款好用的HTTP代理IP资源而已,例如黑洞代理。IP数量