IP代理软件,http代理,API提取-黑洞HTTP

黑洞HTTP

您的位置: 首页 > 新闻资讯 > HTTP代理 > 正文

爬虫代理如何设置ua和代理ip

发布时间:2019年04月23日 来源:互联网

  爬虫代理如何设置ua和代理ip!一、设置User-Agent

爬虫代理如何设置ua和代理ip

  1、创建Request对象时指定headers


  url = 'http://ip.zdaye.com/'


  head = {}


  head['User-Agent'] = 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML,  like Gecko) Chrome/18.0.1025.166  Safari/535.19'


  req = request.Request(url, headers=head)


  #传入创建好的Request对象


  response = request.urlopen(req)


  html = response.read().decode('utf-8')


  print(html)


  2、创建Request对象后使用add_header


  req.add_header('User-Agent', 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166  Safari/535.19')


  # 参数为 (key, value)


  二、设置代理IP


  使用install_opener方法之后,会将程序默认的urlopen方法替换掉。也就是说,如果使用install_opener之后,在该文件中,再次调用urlopen会使用自己创建好的opener。如果不想替换掉,只是想临时使用一下,可以使用opener.open(url),这样就不会对程序默认的urlopen有影响。


  from urllib import request


  if __name__ == "__main__":


  url = www.16yun.cn'


  #这是代理IP


  proxy = {'http':'168.68.8.88:66666'}


  #创建ProxyHandler


  proxy_support = request.ProxyHandler(proxy)


  #创建Opener


  opener = request.build_opener(proxy_support)


  #添加User Angent


  opener.addheaders = [('User-Agent','Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36')]


  #安装OPener


  request.install_opener(opener)


  #使用自己安装好的Opener


  response = request.urlopen(url)


  html = response.read().decode("utf-8")


  print(html)


相关文章内容简介

1 爬虫代理如何设置ua和代理ip

  爬虫代理如何设置ua和代理ip!一、设置User-Agent  1、创建Request对象时指定headers  url = 'http://ip.zdaye.com/'  head = {}  head['User-Agent'] = 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML,  like Gecko) Chrome/18.0.1025.166  Safari/535.19'  req = request.Request(url, headers=head)  #传入创建好的Request对象  response = request.urlopen(req)  html = response. [阅读全文]

热门标签

最新标签

推荐阅读

  1. 03

    2019-04

    你为什么要用代理IP隐藏IP地址的理由?

    在利用网络的时候,大家将它们的匿名算作天经地义。显然真实情况并不是这样。在网上冲浪时,电脑使用公共IP地址,可用以确立相关计算机的很多数据。此数据包括国家,州,区域和城市等

  2. 20

    2019-11

    代理ip爬虫使用什么语言?

    有很多刚刚做爬虫工作者得新手经常会问道这样一个问题,做爬虫需要什么语言,个人觉得任何语言,只要具备访问网络的标

  3. 18

    2019-07

    爬虫不用免费代理IP的因素有哪些?

    我一直觉得,python爬虫是许多开发者难以回避的点,python爬虫可以帮我们抓取并分析一些数据,例如它能定时抓取一个问题的关注量、浏览量、回答数,稍微对语言进行编辑开发,它还会定时收

  4. 27

    2019-09

    使用代理IP访问淘宝

    淘宝网是亚太地区较大的综合类C2C网上购物平台,目前拥有注册会员数以亿计,各类店铺成千上万。那么这么多店铺,这么多商品,它们是以什么方式排名呢?在这里为大家科普下,电商平台排

  5. 10

    2019-04

    使用代理IP能避免隐私泄露吗?

    收集的数据分为两类:一个是你注册网站时的数据,另一个是通过权限提供的数据,以及我们不知晓或未批准的情况下从浏览历史记录和个人计算机获取的数据。先前可以包含姓名,地址,电子

  6. 08

    2019-11

    代理IP为什么可以隐藏真实IP?

    现在发展越来越快,互联网的发展也是很多样化,这就导致了在上网过程中容易泄露个人信息。这时,只要用代理IP就可以解决这个问题。