IP代理软件,http代理,API提取-黑洞HTTP

黑洞HTTP

您的位置: 首页 > 新闻资讯 > 国内代理 > 正文

使用Python爬取猫眼电影

发布时间:2019年02月26日 来源:http://http.hunbovps.com/News/getList/catid/9/id/74.html

大数据时代,海量数据的获取离不开爬虫技术。再加上代理IP的帮助,爬虫技术的应用也就越来越广泛。下面一起来看一下一个有趣的实例——字体反爬。


字体反爬也就是自定义字体反爬,通过调用自定义的字体文件来渲染网页中的文字,而网页中的文字不再是文字,而是相应的字体编码,通过复制或者简单的采集是无法采集到编码后的文字内容的。


现在貌似不少网站都有采用这种反爬机制,我们通过猫眼的实际情况来解释一下。


下图的是猫眼网页上的显示:


使用Python爬取猫眼电影

检查元素看一下


使用Python爬取猫眼电影

这是什么鬼,关键信息全是乱码。


熟悉 CSS 的同学会知道,CSS 中有一个 @font-face,它允许网页开发者为其网页指定在线字体。原本是用来消除对用户电脑字体的依赖,现在有了新作用——反爬。


汉字光常用字就有好几千,如果全部放到自定义的字体中,那么字体文件就会变得很大,必然影响网页的加载速度,因此一般网站会选取关键内容加以保护,如上图,知道了等于不知道。


这里的乱码是由于 unicode 编码导致的,查看源文件可以看到具体的编码信息。


使用Python爬取猫眼电影

搜索 stonefont,找到 @font-face 的定义:


使用Python爬取猫眼电影

这里的 .woff 文件就是字体文件,我们将其下载下来,利用 http://fontstore.baidu.com/static/editor/index.html 网页将其打开,显示如下:


使用Python爬取猫眼电影


网页源码中显示的  跟这里显示的是不是有点像?事实上确实如此,去掉开头的 &#x 和结尾的 ; 后,剩余的4个16进制显示的数字加上 uni 就是字体文件中的编码。所以  对应的就是数字“9”。


知道了原理,我们来看下如何实现。


处理字体文件,我们需要用到 FontTools 库。


先将字体文件转换为 xml 文件看下:


使用Python爬取猫眼电影

打开 xml 文件


使用Python爬取猫眼电影

开头显示的就是全部的编码,这里的 id 仅仅是编号而已,千万别当成是对应的真实值。实际上,整个字体文件中,没有任何地方是说明 EA0B 对应的真实值是啥的。


看到下面


使用Python爬取猫眼电影


这里就是每个字对应的字体信息,计算机显示的时候,根本不需要知道这个字是啥,只需要知道哪个像素是黑的,哪个像素是白的就可以了。


猫眼的字体文件是动态加载的,每次刷新都会变,虽然字体中定义的只有 0-9 这9个数字,但是编码和顺序都是会变的。就是说,这个字体文件中“EA0B”代表“9”,在别的文件中就不是了。


但是,有一样是不变的,就是这个字的形状,也就是上图中定义的这些点。


我们先随便下载一个字体文件,命名为 base.woff,然后利用 fontstore 网站查看编码和实际值的对应关系,手工做成字典并保存下来。爬虫爬取的时候,下载字体文件,根据网页源码中的编码,在字体文件中找到“字形”,再循环跟 base.woff 文件中的“字形”做比较,“字形”一样那就说明是同一个字了。在 base.woff 中找到“字形”后,获取“字形”的编码,而之前我们已经手工做好了编码跟值的映射表,由此就可以得到我们实际想要的值了。


这里的前提是每个字体文件中所定义的“字形”都是一样的(猫眼目前是这样的,以后也许还会更改策略),如果更复杂一点,每个字体中的“字形”都加一点点的随机形变,那这个方法就没有用了,只能祭出杀手锏“OCR”了。

相关文章内容简介

1 使用Python爬取猫眼电影

大数据时代,海量数据的获取离不开爬虫技术。再加上代理IP的帮助,爬虫技术的应用也就越来越广泛。下面一起来看一下一个有趣的实例——字体反爬。字体反爬也就是自定义字体反爬,通过调用自定义的字体文件来渲染网页中的文字,而网页中的文字不再是文字,而是相应的字体编码,通过复制或者简单的采集是无法采集到编码后的文字内容的。现在貌似不少网站都有采用这种反爬机制,我们通过猫眼的实际情况来解释一下。下图的是猫眼网页上的显示:检查元素看一下这是什么鬼,关键信息全是乱码。熟悉 CSS 的同学会知道,CSS 中有一个 @font-face,它允许网页开发者为其网页指定在线字体。原本是用来消除对用户电脑字体的依赖,现在有了新作用——反爬。汉字光常用字就有好几千,如果全部放到自定义的字体中,那么字体文件就会变得很大,必然影响网页的加载速度,因此一般网站会选取关键内容加以保护,如上图,知道了等于不知道。这里的乱码是由于 [阅读全文]

热门标签

最新标签

推荐阅读

  1. 24

    2019-08

    最简单换IP地址的方法

    IP地址是网络给每台电脑的编号,每台联网的电脑都会有IP地址,才能正常通信。现在由于网络的限制,很多时候需要换IP才能继续工作或使用网络。

  2. 19

    2019-04

    你必须掌握的使用换IP工具的常见问题

    服务器空间和ip地址提示要切换,这是网站管理员隔三差五便能遇到的情况。我们要特别注意的是,作为互联网中关键性的分辨规范,假如经常反复的切换ip,不但会面临搜索引擎的惩罚,还可

  3. 12

    2019-06

    如何选择稳定可靠的爬虫代理IP?

    由于开python培训有讲过爬虫的缘故,这个问题已经被ask无数次了,一般问的基友也都是爬虫防ban用的,总体来讲,质量好的都不便宜,便宜的质量都比较渣,一分钱一分货。

  4. 24

    2019-08

    如何简单的利用代理ip做爬虫?

    一套稳定的代理池服务,可以提供上千个爬虫有效的代理,同时各个爬虫都是对应网站有效的免费ip代理服务器,从而保证爬虫快速稳定的运行,当然在公司做的东西不能开源出来。可以利用一

  5. 16

    2019-04

    代理服务供应商简化了网站代理IP节点和基础

    人们可以绕过他们的国家或交换公司的方式设置任何限制,因为在大多数地区确实有代理提供商。最有用的IP代理商是您唯一的服务完全满足您的要求。这就是您必须认识到这些要求的原因。对I

  6. 04

    2018-12

    爬虫如何获取IP池?你选择花钱还是花时间?

    为了获取大量的数据,许多爬虫都需要突破反爬虫机制以获取数据,其中最基础的是IP限制。爬虫一般都绕不过IP这个问题,为什么呢,这是因为在网络爬虫抓取信息的过程中,抓取频率高...