IP代理软件,http代理,API提取-黑洞HTTP

黑洞HTTP

您的位置: 首页 > 新闻资讯 > HTTP代理 > 正文

ip代理详解:爬虫常用的这个库数据库urllib

发布时间:2019年03月21日 来源:http://http.hunbovps.com/News/getList/catid/8/id/169.html

urlib库为python3的HTTP内置请求库

urilib的四个模块:

urllib.request:用于获取网页的响应信息内容

urllib.error:异常处理模块,用于处理异常的模块

urllib.parse:用于解析url

urllib.robotparse:用于解析robots.txt,主要用于看哪些网站不能进行爬取,不过少用

1

urllib.request

urllib.request.urlopen(url,data=None,[timeout,]*,cafile=None,cadefault=False,context=None)

url:为请求网址

data:请求时需要发送的参数

timeout:超时设置,在该时间范围内返回请求信息内容就不会报错

示例代码:

ip代理详解:爬虫常用的这个库数据库urllib

能够使用上面的代码对某些网站进行请求了,但当需要某些反爬网站时,这就不行了,这时我们需要适当地增加请求头进行请求,这时就需要使用复杂一点的代码了,这时我们需要用到Request对象

代码示例:

ip代理详解:爬虫常用的这个库数据库urllib

这个我添加了请求头进行请求,使我发送的请求更加接近浏览器的行为。能够对应某些反爬网站了

假如网站需要进行登陆,这时需要用到post办法,用上面的也是能够的。代码如下:

ip代理详解:爬虫常用的这个库数据库urllib

这里我用到了data的参数把登陆需要的参数传进去,还加了个请求办法Method

parse.urlencode()后面有讲

这里还有另外一种添加请求头的办法

Request.add_header(): 参数有两个,分别为请求头对应的键和值,这种办法一次只能添加一个请求头,添加多个需要用到循环或者直接用前面的办法添加多个请求头

在登陆了网站之后,我们需要用到cookie来保存登陆信息,这时就需要获取cookie了。urllib获取cookie比较麻烦。

代码示例如下:

ip代理详解:爬虫常用的这个库数据库urllib

单纯地打印没什么用,我们需要把他存入文件来保存,下次使用时再次加载cookie来登陆

保存cookie为文件:

ip代理详解:爬虫常用的这个库数据库urllib

另一种保存办法:

ip代理详解:爬虫常用的这个库数据库urllib

这两种保存格式都是不一样的,需要保存的信息内容一样。

保存能够了,这时就需要用到加载了,当然也能够。代码如下:

ip代理详解:爬虫常用的这个库数据库urllib

这样就能够实现不用密码进行登陆了。

cookie小总结:在操作cookie时,都是分五步,如下:

进行导包,至关重要的一步,不导包直接出错。

获取cookie处理对象,使用cookiejar包

创建cookie处理器,使用request.HTTPCookieJarProcessor()

利用cookie处理器构建opener,使用request.build_opener()

进行请求网站,用opener.open(),这个不能用request.urlopen()

假如有时你在同一ip连续多次发送请求,会有被封ip的可能,这时我们还需要用到代理ip进行爬取,代码如下:

ip代理详解:爬虫常用的这个库数据库urllib

能够看到越复杂的请求都需要用到request.build_opener(),这个办法有点重要,请记住哈

2

urllib.error

将上面的使用代理ip的请求进行异常处理,如下:

ip代理详解:爬虫常用的这个库数据库urllib

因为有时这个ip或许也被封了,有可能会抛出异常,所以我们为了让程序运行下去进而进行捕捉程序

error.URLError: 这个是url的某些问题,这个异常只有一个reason属性

error.HTTPError:这个是error.URLError的子类,所以在与上面的混合使用时需要将这个异常放到前面,这个异常是某些请求错误,有三个办法,.reason(), .code(), .headers(),所以在捕捉异常时通常先使用这个

3

urllib.parse

解析url:urllib.parse.urlparse(url, scheme='', allow_fragments=True)

简单的使用:

ip代理详解:爬虫常用的这个库数据库urllib

能够看出加了scheme参数和没加的返回结果是有区别的。而当scheme协议加了,而前面的url也包含协议,一般会忽略后面的scheme参数

既然后解析url,那当然也有反解析url,就是把元素串连成一个url

ip代理详解:爬虫常用的这个库数据库urllib

urlparse()接收一个列表的参数,而且列表的长度是有要求的,是必须六个参数以上,要不会抛出异常

ip代理详解:爬虫常用的这个库数据库urllib

urllib.parse.urljoin():这个是将第二个参数的url缺少的部分用第一个参数的url补齐

ip代理详解:爬虫常用的这个库数据库urllib

urllib.parse.urlencode():这个办法是将字典类型的参数转为请求为get方式的字符串

ip代理详解:爬虫常用的这个库数据库urllib


相关文章内容简介

1 ip代理详解:爬虫常用的这个库数据库urllib

urlib库为python3的HTTP内置请求库urilib的四个模块:urllib.request:用于获取网页的响应信息内容urllib.error:异常处理模块,用于处理异常的模块urllib.parse:用于解析urlurllib.robotparse:用于解析robots.txt,主要用于看哪些网站不能进行爬取,不过少用1urllib.requesturllib.request.urlopen(url,data=None,[timeout,]*,cafile=None,cadefault=False,context=None)url:为请求网址data:请求时需要发送的参数timeout:超时设置,在该时间范围内返回请求信息内容就不会报错示例代码:能够使用上面的代码对某些网站进行请求了,但当需要某些反爬网站时,这就不行了,这时我们需要适当地增加请求头进行请求,这时就需要使用复杂一 [阅读全文]

热门标签

最新标签

推荐阅读

  1. 27

    2019-06

    注册多个账号就用代理ip

    网民在上网的时候,很多时候需要使用到IP地址代理软件,比如在注册多个账号的时候,就需要不断地更换IP。虽然手动更换IP是可以的,但是手动的方法太过繁琐。这个时候,用IP代理软件是非

  2. 25

    2019-10

    企业爬虫对代理ip的要求有多高?

    大数据时代,拥有大数据就是赢家,其中爬虫是现在抓取数据的主要方式,很多企业都根据爬虫抓取的数据进行分析,并制定合适自己的推广方案。由于爬虫程序对目标网站并没有任何好处,所

  3. 22

    2019-10

    HTTP代理IP用于网络营销效果怎么样?

    HTTP代理IP用于网络营销效果怎么样?我们平时在访问网站,查看或进行业务的时候,基本都会被提示要先注册登录,但一个ip地址基本只能注册一个帐号。如果是每天都有大量注册业务需求的网

  4. 13

    2019-03

    淘宝怎么做到安全刷单?

    一个淘宝新店刚开始运营的时候,如果没有销量就不会有推荐和排行,那么怎么先把销量做起来呢,比如刷单救就是其中一种:最开始不管是自己的熟人还是找专业的团队,或多或少每一家店铺

  5. 21

    2019-11

    如何验证Python爬取的代理IP是否有效?

    在爬虫工作的过程中,往往由于IP被限制了而无法进行下去,工程师们也是智计百出,购买代理IP,自己搭建IP池,甚至网上抓取免费代理IP。我们知道,网络上有很多提供免费代理IP的网站,我

  6. 02

    2019-04

    360浏览器里可以使用代理IP吗?

    获取IP后,点击右上角图标,选择工具—代理服务器—代理服务器设置。