IP代理软件,http代理,API提取-黑洞HTTP

黑洞HTTP

您的位置: 首页 > 新闻资讯 > HTTP代理 > 正文

Ubuntu怎么使用squid实现http代理?

发布时间:2019年04月26日 来源:http://http.hunbovps.com/News/getList/catid/8/id/406.html

  Ubuntu怎么使用squid实现http代理?apt-get update


Ubuntu怎么使用squid实现http代理?


  apt-get install squid


  vi /etc/squid3/squid.conf


  命令行模式输入/http_access allow 查找,


  找到http_access allow localhost,注释掉,然后增加一条为http_access allow all


  将http_port 3128修改为自己的端口http_port 3201


  ESC:wq保存退出


  service squid3 restart


  完成后就可以在浏览器中添加http代理ip:3201了


  这时的http只是透明代理,会有via字段和X-Forwarded-For字段显示你的IP


  需要匿名的话就需要修改配置


  查看版本号


  squid3 -v


  vi /etc/squid3/squid.conf


  不同版本添加不同代码,下面是版本号以及对应代码


  Squid 2.x


  header_access Via deny all


  header_access X-Forwarded-For deny all


  Squid 3.0


  reply_header_access Via deny all


  reply_header_access X-Forwarded-For deny all


  Squid 3.1以及以上版本


  via off


  forwarded_for delete


  添加完成后


  service squid3 restart


  


相关文章内容简介

1 Ubuntu怎么使用squid实现http代理?

  Ubuntu怎么使用squid实现http代理?apt-get update  apt-get install squid  vi /etc/squid3/squid.conf  命令行模式输入/http_access allow 查找,  找到http_access allow localhost,注释掉,然后增加一条为http_access allow all  将http_port 3128修改为自己的端口http_port 3201  ESC:wq保存退出  service squid3 restart  完成后就可以在浏览器中添加http代理ip:3201了  这时的http只是透明代理,会有via字段和X-Forwarded-For字段显示你的IP  需要匿名的话就需要修改配置  查看版本号  squid3 -v  vi /etc/squid3/squid.conf  不同 [阅读全文]

热门标签

最新标签

推荐阅读

  1. 28

    2019-10

    避免IP被封,爬虫如何进行伪装?

    爬取大数据时,我们需要 Python爬虫的帮助,但抓取数据时,我们很容易被目标网站限制访问,这是目标网站阻止别人批量获取自己网站信息的一种方式,通常会采用封 IP 作为终极手段,效果非

  2. 24

    2019-03

    游戏封号与使用IP代理有关系吗?

    游戏封号与使用IP代理有关系吗?是有的。游戏被封号的理由千千万,但是与IP有什么关系呢?

  3. 09

    2019-04

    反向代理IP是什么?

    在计算机网络中,反向代理是代理服务器的一种。服务器根据客户端的请求,从其关系的一组或多组后端服务器(如Web服务器)上获取资源,然后再将这些资源返回给客户端,客户端只会得知反

  4. 07

    2019-05

    代理IP可以访问淘宝吗?

    淘宝网是亚太地区较大的综合类C2C网上购物平台,目前拥有注册会员数以亿计,各类店铺成千上万。

  5. 06

    2019-04

    代理IP如何帮助Python爬虫进行图片自动下载

    随着Python爬虫的问世,很多机械性的工作都能够省掉了,当要大批量爬取信息的时候,爬虫能够进行自动下载,大大的提升了工作效率。那么python爬虫如何实现图片自动下载的呢?怎么运用python

  6. 19

    2019-06

    代理ip如何解决分布式爬虫IP问题

    什么要用分布式爬虫,大致的说,就是当你需要采集大量数据时,因为任务太多,一台机器搞不定了,这时候需要多台机器共同协作完成,最后将所有机器完成的任务汇总在一起,直到任务结