Características
- Ele cria um diretório com todas as informações, incluindo arquivos de saída nmap.
- Ele usa cores para assinalar informações importantes sobre o console.
- Ele detecta alguns problemas de segurança, como problemas de nome do host, números de portas incomuns e transferências de zona.
- É fortemente testado e é muito robusto contra problemas de configuração DNS.
- Ele usa nmap para detecção de host ativo, varredura de portas e informações sobre a versão (incluindo scripts do nmap).
- Ele procura por SPF registra informações para encontrar novos nomes de host ou endereços IP.
- Ele procura por nomes de DNS reverso e compará-los com o nome do host.
- Ele imprime o país de cada endereço IP.
- Ele cria um arquivo PDF com resultados.
- Ele detecta automaticamente e analisar subdomínios!
- Ele procura por domínios e-mails.
- Ele verifica os 192 nomes de máquinas mais comuns nos servidores de DNS.
- Ele verifica para transferência de zona em cada servidor DNS.
- Ele encontra os nomes reversa do intervalo de rede / 24 de cada endereço IP.
- Ele encontra host ativo usando nmap conjunto completo de técnicas.
- Ele escanear as portas usando nmap.
- Ele procura por host e porta informações usando nmap.
- Ele detecta automaticamente os servidores de web utilizados.
- Ele rastreia todas as páginas web usando o nosso servidor ferramenta de segurança Web Crawler.
- Ele filtra os nomes de host com base em seu nome.
- É pseudo-aleatoriamente Pesquisas domínios N no google e analisá-los automaticamente!
- Usa CTRL-C para parar a fase de análise atual e continuar a trabalhar.
Se você quiser que todos os recursos (rastreador web, pdf e cores), o que é bom, também copiar esses arquivos para / usr / bin ou / usr / local / bin
ansistrm.py
crawler.py
pyText2pdf.py
domain_analyzercrawler.py -u www.marrocamp.blogspot.com.br -w -m 20
-u, -url | URL para iniciar o rastreamento. |
-m, -max-valor-para-crawl | Max profundidade do rastreamento. Usando primeira amplitude algoritmo |
-w, -Write para arquivo | Salve resumo das rastejando para um arquivo de texto. Diretório de saída é criado automaticamente |
-s, -subdomains | Digitalizar também subdomínios correspondentes com domínio url. |
-r, -follow-redirect | Não siga redirecionar. Por padrão seguir o redirecionamento na URL principal. |
-f, -fetch-files | Baixe há cada arquivo detectado no diretório 'Files'. Substituir o conteúdo existente. |
-F, -file-Extensão | Baixar arquivos especificados por extensões separadas por vírgula. Esta opção também ativa a opção 'fetch-files'. 'Ex .: -F pdf, xls, doc' |
-d, -docs-files | Baixar arquivos docs: xls, pdf, doc, docx, txt, odt, gnumeric, CSV, etc. Esta opção também ativa 'fetch-arquivos' opção. |
-E, -Exclude-Extensões | Não faça download de arquivos que corresponde com estas extensões. Opções '-f', '- F' ou '-d' necessário. |
-h, -help | Mostrar esta mensagem de ajuda e sai. |
-V, -version | Informações de versão e sai |
-v, -verbose | Seja verboso |
-D, -debug | Depurar. |
home -> file system -> usr -> share -> local -> bin
Opções
-h, -help | Mostrar esta mensagem de ajuda e sai |
-V, -version | Informações de versão e sai. |
-D, -debug | Depurar |
-d, -domain | Domínio de analisar. |
-j, feria-common-anfitriões-nomes | Não verificar os nomes de host comuns. Mais rápido, mas você vai perder anfitriões |
-t, -não-zone-transferência | Não tente transferir a zona. |
-n, -não-net-bloco | Não tente -sL cada netblock IP. |
-o, -store-output | Armazenar tudo em um diretório nomeado como o domínio. Arquivos de saída do Nmap eo resumo são armazenados dentro. |
-a, -não-scan-ou-ativa | Não use nmap para escanear as portas nem para procurar hosts ativos |
-p, -não-store nmap | Não armazenar todos os arquivos de saída no nmap <saída de diretório> diretório / nmap |
-e, -zenmap | Mover arquivos em XML do Nmap para um diretório e abrir Zenmap com a topologia de todo o grupo. Seu usuário deve ter acesso à variável DISPLAY. |
-g, -não-goog-mail | Não use goog-mail.py (embebed) para procurar e-mails para cada domínio |
-s, feria-subdomínios | Não analise sub-domínios de forma recursiva. Você perderá informações internas subdomínio. |
-f, -create-pdf | Crie um arquivo pdf com todas as informações. |
-w, -não-webcrawl | Não web crawl de cada site (em cada porto) encontramos procurando mis-configurações públicas web (listagem de diretórios, etc.). |
-m, -max-valor-para-crawl | Se você rastejar, fazê-lo até esta quantidade de links para cada site. O padrão é 50. |
-F, -Download-Files | Se você rastejar, fazer ti até esta quantidade de links para cada site. O padrão é 10. |
-c, feria-countrys | Não resolver o nome do país para cada IP e hostname. |
-q, -não-spf | Não verificar registos SPF. |
-k, RANDOM-domínio | Encontrar esta quantidade de domínios do Google e analisá-los. Para o domínio de base |
-x, -nmap-scantype | Parâmetros para o Nmap para varredura de portas. O padrão é: "-O -reason -webxml -traceroute |