Questo sito contribuisce alla audience di TGCOM24
Sicurezza

Deep Web: qui si nascondeva la rete dei pedofili

Un gruppo di insospettabili utilizzava il web invisibile per scambiare foto e video pedo-pornografici. Ecco come faceva

Milioni di foto e video viaggiavano nella sottorete di internet. Credits: Flickr, Pink Sherbet Photography

Una rete di oltre 5 milioni di file, immagini e video, di contenuto pedopornografico scambiati per tutto il paese. La Polizia Postale ha scoperto il traffico grazie ad un utente privato campano che ha informato gli investigatori dell’esistenza del fenomeno. L’operazione “Nessun Dorma” è partita da Salerno, coinvolgendo sette regioni italiane: Campania, Lazio, Umbria, Liguria, Piemonte, Veneto e Lombardia. La Polizia Postale, agendo sotto copertura per diverse settimane, è riuscita a intrufolarsi nella rete e a individuare le decine di professionisti, impiegati e insospettabili coinvolti nel traffico del materiale pedopornografico, parte di cui particolarmente crudo, con immagini di minori seviziati e torturati.

L'archivio, secondo quanto accertato dagli investigatori, era utilizzato da un'associazione per delinquere che operava sul Deep Web sfruttando l'anonimato garantito da questa sottorete” – spiegano dalla Polizia Postale – “Tra i reati ipotizzati c’è associazione a delinquere e divulgazione di materiale pedornografico”. I fautori di questa catena, che come è stato accertato dalle forze dell’ordine aveva radici profonde in diverse regioni, avevano imparato a sfruttare le tecnologie del Deep Web per sfuggire ai controlli della Polizia e non lasciare traccia su internet. Ma come è possibile?

Il Deep Web (o rete invisibile) rappresenta quell'insieme di risorse della rete che non vengono memorizzate e indicizzate dai normali motori di ricerca per vari motivi. Sembrerà incredibile ma quello che ci sembra essere un immenso mare di informazioni normalmente visibili su internet è in realtà solo una piccola parte del web vero e proprio. Sotto questa “facciata” c’è in realtà un insieme di sistemi interconnessi e non intercettati che compongono una rete centinaia di volte superiore quella che vediamo, circa 500 volte più grande. Come ha spiegato qualche mese fa Mike Bergman, il fondatore dell’agenzia Bright Planet che si occupa di Deep Web per governi, aziende e privati: “immaginate la normale ricerca su internet come il lancio di una rete in mare da parte dei pescatori. All'inizio si prende molto, non solo pesci, poi man mano che ci si avvicina alla riva la rete avrà perso un bel po’ di schifezze ma anche un certo numero di pesci”.

E’ quello che accede con internet quando, dalla ricerca (o query) fino alla risposta una gran parte di informazioni viene persa, o meglio “ricade in mare”. Questo succede perché i motori di ricerca non sono in grado di restituire tutti i risultati che popolano il web intero. Google, Yahoo e Bing, come tutti gli altri motori, utilizzano vari crawler che analizzano i contenuti di un database in automatico, creando di volta in volta una lista di URL da visitare che, su grande scala, restituiscono il web visibile. Il problema è che i crawler non riescono a individuare tutti quei contenuti che formano il Deep Web che non sono altro che categorie nascoste, contenuti fantasma per i motori di ricerca. Vi spiego perché. Non tutto quello che viene prodotto su internet viene considerato contenuto per i crawler. Diverse risorse digitali vengono periodicamente scartate dai sistemi di monitoraggio e raccolta, quasi sempre perché non corrispondono agli standard di pubblicazione di internet.

Contenuti dinamici: si tratta di quelle pagine dinamiche che vengono richiamate nelle query di ricerca solo attraverso specifiche stringhe e quasi sempre conosciute solo da chi ha sviluppato il sito che mostra i contenuti.

Contenuti non linkati: si tratta di pagine che non sono collegate ad altre pagine e che in quanto isolate possono utilizzare sistemi di anti tracciamento a livello globale. Questi tipi di contenuti sono conosciuti anche come inlinks.

Web Privato: sono i siti che richiedono una registrazione per essere navigati. Un po’ quello che succede con forum e gruppi di discussione chiusi. I motori di ricerca riescono a restituire alcune frasi inserite all'interno delle pagine ma non i contenuti multimediali e protetti da un form di iscrizione.

Accesso limitato: portali che utilizzano pratiche tecniche per limitare la visione dei contenuti a tutti. Un esempio sono la visione di link diretti di download solo dopo che si è inserito un codice di ingresso o una frase CAPTCHA. In questo caso i motori di ricerca recuperano solo la descrizione pubblica di questi siti e non i loro contenuti, seppur pubblicati.

Contenuti in script: si tratta degli elementi conservati in moduli dinamici o JavaScript visualizzabili con software esterni come i lettori Flash o Ajax.

Contenuti non-HTML: tipi di contenuti testuali inseriti in file multimediali (immagini e video) che, per forza di cose, non vengono gestiti dai motori di ricerca. Utile se si vuole inviare un messaggio a qualcuno e inserirlo come testo in un video. In questo modo il web non potrà leggerlo.

E’ chiaro quindi che chiunque conosca anche solo qualcuno di questi strumenti può creare una catena di diffusione non direttamente rintracciabile con i comuni strumenti di ricerca a disposizione. Secondo i criminali informatici che utilizzano queste tecniche per scopi da condannare, il Deep Web è una risorsa ancora poco conosciuta da sfruttare che si sposa perfettamente con il concetto di anonimato per condividere contenuti non individuali perché immersi in un mare inaccessibile ai più.

Seguimi su Twitter: @Connessioni

© Riproduzione Riservata

Commenti

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

È possibile utilizzare questi tag ed attributi XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>