Katana Web Crawler Foglio di formaggio¶
Panoramica¶
Katana è un framework web crawling veloce e personalizzabile sviluppato da Project Discovery. È progettato per strisciare i siti web in modo efficiente per raccogliere informazioni e scoprire endpoint. Katana si distingue dagli altri web crawler grazie alla sua velocità, flessibilità e attenzione ai casi di utilizzo dei test di sicurezza.
Ciò che rende Katana unica è la sua capacità di strisciare intelligentemente applicazioni web moderne, tra cui applicazioni di singola pagina (SPA) che si basano pesantemente su JavaScript. Può gestire tecnologie web complesse ed estrarre informazioni preziose come URL, file JavaScript, endpoint API e altri beni web. Katana è costruito con i professionisti della sicurezza in mente, rendendolo uno strumento eccellente per la ricognizione durante le valutazioni di sicurezza e la caccia di taglie di bug.
Katana supporta varie strategie di strisciamento, tra cui strisciamento standard, JavaScript parsing, e sitemap-based crawling. Può essere personalizzato per concentrarsi su specifici tipi di risorse o seguire particolari modelli, rendendolo adattabile a diversi scenari di test di sicurezza. Lo strumento è progettato per essere facilmente integrato nei flussi di lavoro di test di sicurezza e può essere combinato con altri strumenti Project Discovery per una ricognizione completa.
Installazione¶
Utilizzo di Go¶
Traduzione:
Utilizzo di Docker¶
Traduzione:
Utilizzo di Homebrew (macOS)¶
Traduzione:
Utilizzo di PDTM (Project Discovery Tools Manager)¶
Traduzione:
Su Kali Linux¶
Traduzione:
Uso di base¶
Crawling a singolo URL¶
Traduzione:
Crawling URL multipli¶
Traduzione:
Opzioni di uscita¶
Traduzione:
Opzioni di rotazione¶
Depth e Scope di Cracovia¶
Traduzione:
Strategie di deformazione¶
Traduzione:
Selezione del campo¶
Traduzione:
Uso avanzato¶
URL Filtro¶
Traduzione:
Filtro delle risorse¶
¶
Riempimento del modulo¶
Traduzione:
JavaScript Parsing¶
Traduzione:
Ottimizzazione delle prestazioni¶
Convalutazione e limitazione dei tassi¶
Traduzione:
Opzioni di timeout¶
Traduzione:
Ottimizzazione per grandi scansioni¶
Traduzione:
Integrazione con altri strumenti¶
Pipeline con Subfinder¶
Traduzione:
Pipeline con HTTPX¶
Traduzione:
Pipeline con Nuclei¶
Traduzione:
Personalizzazione di uscita¶
Formato di uscita personalizzato¶
Traduzione:
Filtro dell'uscita¶
Traduzione:
Filtro avanzato¶
URL Pattern Matching¶
Traduzione:
Filtro dei contenuti¶
Traduzione:
Opzioni Proxy e Network¶
Traduzione:
Varie Caratteristiche¶
Riempimento automatico del modulo¶
Traduzione:
Percorsi specifici¶
Traduzione:
Storing Responses¶
Traduzione:
Risoluzione dei problemi¶
Questioni comuni¶
-
JavaScript Parsing Issues Traduzione:
-
** Limitare il bersaglio* * Traduzione:
-
** Problemi di memoria ** Traduzione:
-
Revisione: Traduzione:
Debug¶
Traduzione:
Configurazione¶
File di configurazione¶
Katana utilizza un file di configurazione situato in $HOME/.config/katana/config.yaml
. È possibile personalizzare varie impostazioni in questo file:
¶
Variabili dell'ambiente¶
Traduzione:
Riferimento¶
Opzioni della linea di comando¶
Flag | Description |
---|---|
-u, -url |
Target URL to crawl |
-list, -l |
File containing list of URLs to crawl |
-o, -output |
File to write output to |
-json |
Write output in JSON format |
-silent |
Show only URLs in output |
-v, -verbose |
Show verbose output |
-depth |
Maximum depth to crawl (default: 2) |
-crawl-scope |
Crawling scope (strict, subs, out-of-scope) |
-crawler |
Crawler types to use (standard, js, sitemap, robots) |
-field |
Fields to display in output |
-extension |
File extensions to include |
-exclude-extension |
File extensions to exclude |
-match-regex |
Regex pattern to match URLs |
-filter-regex |
Regex pattern to filter URLs |
-match-condition |
Condition to match URLs |
-form-fill |
Enable automatic form filling |
-js-crawl |
Enable JavaScript parsing |
-headless-timeout |
Timeout for headless browser (seconds) |
-chrome-path |
Path to Chrome browser |
-concurrency |
Number of concurrent requests |
-delay |
Delay between requests (milliseconds) |
-rate-limit |
Maximum number of requests per second |
-timeout |
Timeout for HTTP requests (seconds) |
-max-urls |
Maximum number of URLs to crawl |
-proxy |
HTTP/SOCKS5 proxy to use |
-header |
Custom header to add to all requests |
-cookie |
Custom cookies to add to all requests |
-paths |
Specific paths to crawl |
-paths-file |
File containing paths to crawl |
-store-response |
Store all responses |
-store-response-dir |
Directory to store responses |
-version |
Show Katana version |
Crawling Scopes¶
Scope | Description |
---|---|
strict |
Crawl only the exact domain provided |
subs |
Crawl the domain and its subdomains |
out-of-scope |
Crawl any domain, regardless of the initial domain |
Tipi di cassonetto¶
Type | Description |
---|---|
standard |
Standard HTTP crawler |
js |
JavaScript parser using headless browser |
sitemap |
Sitemap-based crawler |
robots |
Robots.txt-based crawler |
Opzioni di campo¶
Field | Description |
---|---|
url |
Full URL |
path |
URL path |
method |
HTTP method |
host |
Host part of URL |
fqdn |
Fully qualified domain name |
scheme |
URL scheme (http/https) |
port |
URL port |
query |
Query parameters |
fragment |
URL fragment |
endpoint |
URL endpoint |
Risorse¶
*Questo foglio di scacchi fornisce un riferimento completo per l'utilizzo di Katana, dalla scansione di base al filtraggio avanzato e l'integrazione con altri strumenti. Per le informazioni più aggiornate, consultare sempre la documentazione ufficiale. *