python 实现的IP 存活扫描脚本

 更新时间:2020年12月10日 15:47:17   作者:1ndex  
这篇文章主要介绍了python 实现的IP 存活扫描脚本,帮助大家更好的理解和使用python,感兴趣的朋友可以了解下

下载地址

ActiveOrNot

用于处理 oneforall 等子域名扫描工具的结果去重 + 主机存活扫描

参数

-f --file  指定存放ip或子域名的文件,默认 ip.txt
-t --thread  设置线程数,默认 50

python3 ActiveOrNot.py -f ip.txt -t 12

具体代码 ActiveOrNot.py

from threading import Thread
from queue import Queue
import requests
from time import time
import argparse

headers = {
 "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36"
}


def ping(url, new_ip):
 url = url.strip()
 if (not url.startswith('http://')) and (not url.startswith('https://')):
  url = 'http://' + url
 try:
  req = requests.get(url, headers=headers, timeout=2)
  new_ip.put(url + ' -- ' + str(req.status_code))
  print("%s 存活" % url)
 except:
  print("%s 不存活" % url)


def new_list(file):
 with open(file, 'r') as f:
  new_ip = []
  ip_list = f.readlines()
  for ip in ip_list:
   ip = ip.strip().replace('http://', '').replace('https://', '')
   if ip:
    if not (ip in new_ip):
     new_ip.append(ip)
  return new_ip


def main(file, th):
 begin_time = time()
 new_ip = Queue()
 ip_list = new_list(file)
 j = 0
 length = len(ip_list)
 while j < length:
  threads = []
  for i in range(th):
   t = Thread(target=ping, args=(ip_list[j], new_ip))
   t.start()
   threads.append(t)
   j += 1
   if j == length:
    break
  for thread in threads:
   thread.join()
 with open('NewIP.txt', 'a+') as nf:
  while not new_ip.empty():
   nf.write(new_ip.get()+'\n')
 end_time = time()
 run_time = end_time - begin_time
 print("总共耗时 %s 秒"% run_time)


if __name__ == '__main__':
 parser = argparse.ArgumentParser(description='url active scan')
 parser.add_argument("-f", "--file", help="指定文件", default='ip.txt')
 parser.add_argument("-t", "--thread", help="设置线程", default=50)
 args = parser.parse_args()
 file = args.file
 th = args.thread
 main(file, th)

以上就是python 实现的IP 存活扫描脚本的详细内容,更多关于python ip存活扫描的资料请关注脚本之家其它相关文章!

相关文章

  • Python可视化工具如何实现动态图表

    Python可视化工具如何实现动态图表

    这篇文章主要介绍了Python可视化工具如何实现动态图表,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-10-10
  • Python urllib.request对象案例解析

    Python urllib.request对象案例解析

    这篇文章主要介绍了Python urllib.request对象案例解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-05-05
  • Python如何批量提取pdf文本内容

    Python如何批量提取pdf文本内容

    PyMuPDF功能强大,并且支持文本提取、图片提取、页面操作等,本文将为大家介绍一下Python如何使用PyMuPDF批量提取PDF文本内容,感兴趣的可以了解下
    2025-04-04
  • Python项目打包成二进制的方法

    Python项目打包成二进制的方法

    这篇文章主要介绍了Python项目打包成二进制的方法,帮助大家更好的理解和使用python,感兴趣的朋友可以了解下
    2020-12-12
  • http请求 request失败自动重新尝试代码示例

    http请求 request失败自动重新尝试代码示例

    这篇文章主要介绍了http请求 request失败自动重新尝试代码示例,小编觉得还是挺不错的,具有一定借鉴价值,需要的朋友可以参考下
    2018-01-01
  • 使用 Python 合并多个格式一致的 Excel 文件(推荐)

    使用 Python 合并多个格式一致的 Excel 文件(推荐)

    这篇文章主要介绍了使用 Python 合并多个格式一致的 Excel 文件,本文给大家介绍的非常详细,具有一定的参考借鉴价值,需要的朋友可以参考下
    2019-12-12
  • Python发展史及网络爬虫

    Python发展史及网络爬虫

    Python 是一个高层次的结合了解释性、编译性、互动性和面向对象的脚本语言。这篇文章给大家介绍了python发展史及网络爬虫知识,感兴趣的朋友跟随小编一起看看吧
    2019-06-06
  • 解决pycharm每次新建项目都要重新安装一些第三方库的问题

    解决pycharm每次新建项目都要重新安装一些第三方库的问题

    今天小编就为大家分享一篇解决pycharm每次新建项目都要重新安装一些第三方库的问题,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-01-01
  • python爬虫基本知识

    python爬虫基本知识

    最近在做一个项目,这个项目需要使用网络爬虫从特定网站上爬取数据,于是乎,我打算写一个爬虫系列的文章,与大家分享如何编写一个爬虫。下面这篇文章给大家介绍了python爬虫基本知识,感兴趣的朋友一起看看吧
    2018-03-03
  • Python使用Matplotlib实现创建动态图形

    Python使用Matplotlib实现创建动态图形

    动态图形是使可视化更具吸引力和用户吸引力的好方法,它帮助我们以有意义的方式展示数据可视化,本文将利用Matplotlib实现绘制一些常用动态图形,希望对大家有所帮助
    2024-02-02

最新评论