黑洞HTTP

黑洞HTTP

您的位置: 首页 > 新闻资讯 > HTTP代理 > 正文

python获取Ip归属信息

发布时间:2019年03月07日 来源:互联网

如果你有一批IP地址想要获得这些IP具体的信息,比如归属国家,城市等,最好的办法当时是调用现有的api接口来获取,具体应用场景可以根据自己需要,比如我在之前就写过一篇文章,是关于我的博客被莫名攻击的时,就有获取过一批IP,攻击的时候当然是恢复业务重要,IP该封的就要封,攻击过后这个攻击者的IP信息,自己就可以分析下都来自哪里,有没有什么特征,帮助提示自己网站的安全性,今天这个脚本就是根据提供的IP获得IP归属的具体信息,脚本如下:

python获取Ip归属信息

#!/usr/bin/env python

import requests


import csv




def getIp(file):


    iplist = []


    fi = open(file, 'r')


    for ip in fi:


        ip = ip.strip()


        iplist.append(ip)


    return iplist




def get_geolocation(ip):


    r = requests.get('https://freegeoip.net/json/' + ip)


    info = [str(r.json()['country_name']), str(r.json()['city'])]


    return {'ip':ip, 'country_name':info[0], 'city_name':info[1]}




if __name__ == '__main__':


    iplist = getIp('/root/ipfile')


    f = open('outputinfo.csv', 'a+')


    fieldnames = ['ip', 'country_name', 'city_name']


    dict_writer = csv.DictWriter(f, fieldnames=fieldnames)


    dict_writer.writerow(dict(zip(fieldnames, fieldnames)))


    for ip in iplist:


        data = get_geolocation(ip)


        dict_writer.writerow(data)


脚本解释,定义了2个函数,getIp()函数从文件中读取IP信息,返回一个列表,get_geolocation()函数负责实际得到信息,返回一个字典,接着在主函数打开一个可写的csv文件,通过循环将得到的信息写入一个CSV文件中,在写入csv 文件时用到了csv.DictWriter字典写的功能,这个还是比较实用,可以将数据结构类型为字典的数据直接写入csv文件,换句话说就是你只要把你要写的数据转换成字典的形式,就可以很方便的写入了,比如我这句dict(zip(fieldnames, fieldnames))其实就是这个功能,大家以后用到操作csv文件时,可以自己实践实践。


相关文章内容简介

1 python获取Ip归属信息

如果你有一批IP地址想要获得这些IP具体的信息,比如归属国家,城市等,最好的办法当时是调用现有的api接口来获取,具体应用场景可以根据自己需要,比如我在之前就写过一篇文章,是关于我的博客被莫名攻击的时,就有获取过一批IP,攻击的时候当然是恢复业务重要,IP该封的就要封,攻击过后这个攻击者的IP信息,自己就可以分析下都来自哪里,有没有什么特征,帮助提示自己网站的安全性,今天这个脚本就是根据提供的IP获得IP归属的具体信息,脚本如下:#!/usr/bin/env pythonimport requestsimport csvdef getIp(file):    iplist = []    fi = open(file, 'r')    for ip in fi:        [阅读全文]

热门标签

最新标签

推荐阅读

  1. 20

    2019-05

    代理ip如何维护你的隐私安全?

    HTTP代理ip在之前其实并不会被人们时常接触到,但是随着时代的发展,互联网的不断进步。越来越多的人开始意识到HTTP代理ip的重要性,开始在人们的生活中占据越来越重要的地位,越来越多

  2. 30

    2019-10

    ip池对代理i有多重要?

    代理ip入侵人们的生活工作,代理ip也被广泛使用,市场需求也是逐渐增加,如何选择一家ip资源丰富的代理服务平台,大家知道在百度搜索引擎输入“代理ip”将会出现很多,丰富的ip资源是选

  3. 13

    2019-07

    爬虫数据采集对高品质稳定代理ip的必要性

    爬虫数据采集作为目前大数据分析数据的重要来源,已经越来越多的企业和个人投身到爬虫数据采集的业务中来了,那么在爬虫数据采集中,几乎所有的网站都增加了反爬虫机制,同时对爬虫工

  4. 28

    2019-06

    互联网时代离不开http代理ip

    一直以来,社会各界总在讨论电商模式是否能够颠覆甚至取代传统4S店模式。其实未来并不是电商颠覆4S店,而是4S店和厂家要积极拥抱互联网。随着互联网行业的不断发展,越来越多的消费者在

  5. 08

    2019-04

    使用代理IP进行信息采集:要警惕爬虫行为测试

    Python爬虫并不是真实的用户,他的行为模式和真正的用户还是有区别的,所以网站通常会采用测试用户行为模式去分辨目前浏览的用户到底是人还是爬虫机器。那么网站究竟通过什么途径来实现

  6. 19

    2019-03

    爬虫的第一步就是搭建IP代理池

    代理实际上就是代理服务器, 代理服务器的工作机制很象我们生活中常常提及的代理商,假设你的机器为A机,你想获得的数据由B机提供,代理服务器为C机,那么具体的连接过程是这样的。 首