IP代理软件,http代理,API提取-黑洞HTTP

黑洞HTTP

您的位置: 首页 > 新闻资讯 > HTTP代理 > 正文

爬虫代理如何设置ua和代理ip

发布时间:2019年04月23日 来源:互联网

  爬虫代理如何设置ua和代理ip!一、设置User-Agent

爬虫代理如何设置ua和代理ip

  1、创建Request对象时指定headers


  url = 'http://ip.zdaye.com/'


  head = {}


  head['User-Agent'] = 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML,  like Gecko) Chrome/18.0.1025.166  Safari/535.19'


  req = request.Request(url, headers=head)


  #传入创建好的Request对象


  response = request.urlopen(req)


  html = response.read().decode('utf-8')


  print(html)


  2、创建Request对象后使用add_header


  req.add_header('User-Agent', 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166  Safari/535.19')


  # 参数为 (key, value)


  二、设置代理IP


  使用install_opener方法之后,会将程序默认的urlopen方法替换掉。也就是说,如果使用install_opener之后,在该文件中,再次调用urlopen会使用自己创建好的opener。如果不想替换掉,只是想临时使用一下,可以使用opener.open(url),这样就不会对程序默认的urlopen有影响。


  from urllib import request


  if __name__ == "__main__":


  url = www.16yun.cn'


  #这是代理IP


  proxy = {'http':'168.68.8.88:66666'}


  #创建ProxyHandler


  proxy_support = request.ProxyHandler(proxy)


  #创建Opener


  opener = request.build_opener(proxy_support)


  #添加User Angent


  opener.addheaders = [('User-Agent','Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36')]


  #安装OPener


  request.install_opener(opener)


  #使用自己安装好的Opener


  response = request.urlopen(url)


  html = response.read().decode("utf-8")


  print(html)


相关文章内容简介

1 爬虫代理如何设置ua和代理ip

  爬虫代理如何设置ua和代理ip!一、设置User-Agent  1、创建Request对象时指定headers  url = 'http://ip.zdaye.com/'  head = {}  head['User-Agent'] = 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML,  like Gecko) Chrome/18.0.1025.166  Safari/535.19'  req = request.Request(url, headers=head)  #传入创建好的Request对象  response = request.urlopen(req)  html = response. [阅读全文]

热门标签

最新标签

推荐阅读

  1. 02

    2019-07

    为什么使用HTTP代理IP还是被封呢?

    网络爬虫在如今的互联网领域有着特别的意义,比如我们耳熟能详的大数据,它的发展就离不开网络爬虫。然而网络爬虫也是有天敌的,那就是目标网站的反爬虫策略,爬虫在工作过程中要时刻

  2. 02

    2019-08

    http代理服务器和VPN能解决什么问题

    VPN:指虚拟网络。虚拟网络的功能是在公用网络上建立专用网络,进行加密和远程通讯。http代理服务器:也称网络代理,是一种特殊的网络服务,是一个网络与另一个网络进行非直接的连接。

  3. 19

    2018-12

    https网站被限制?DNS策略组全搞定!

    ​DNS异常会导致HTTP网页打不开,DNS劫持会导致电脑访问木马网站和各种广告弹窗等等。通俗来讲,DNS就是我们平时上网时输入的网址,也就是域名。

  4. 23

    2019-10

    使用代理ip服务器的理由有哪些?

    控制员工和孩子的互联网使用: 组织和家长设置 代理服务器 来控制和监控他们的员工或孩子如何使用互联网。大多数组织不希望您在公司时间查看特定网站,并且他们可以配置代理服务器拒绝

  5. 17

    2019-04

    代理IP从哪找?

    由于开python培训有讲过爬虫的缘故,这个问题已经被ask无数次了,一般问的**也都是爬虫防ban用的,那么在此,我把我个人尝试过的代理渠道都写一下。总体来讲,质量好的都不便宜,便宜的质

  6. 20

    2019-05

    如何获取高匿代理IP资源

    我们知道,代理IP分为透明代理、普匿代理和高匿代理,其中透明代理会被目标服务器识别并知晓真实IP,普匿代理会被目标服务器识别使用了代理但并不知道真实IP,高匿代理不会被服务器知