Squid
* News 12*


INTERNET: I FILTRI CONTRO LA PORNOGRAFIA NON FUNZIONANO.

Ancora in alto mare la tecnologia dei filtri contro la pornografia. Le società che gestiscono motori di ricerca stanno integrando metodi di censura per attirare clienti quali aziende, scuole e genitori, ma mostrano ancora troppi nudi. Le carenze dei filtri antipornografia sono risultate chiare la scorsa settimana quando Google ha lanciato la versione test di un motore di ricerca con un filtro per escludere "contenuti per soli adulti". Ma anche con il filtro attivato, risultavano parecchi siti con immagini pornografiche, spesso associati a parole chiave che non hanno un primo significato di tipo erotico. "Il filtro elimina molte immagini per adulti, ma non può garantire che tutti quei contenuti vengano eliminati" ha ammesso Google sul suo sito Web. Google non è sola, nella difficile battaglia per filtrare immagini pornografiche o comunque inopportune. Aziende che producono tecnologie per il riconoscimento delle immagini ammettono che il livello di conoscenze tecnologiche è ancora rudimentale, e rende risultati imprecisi. Anche se gli sviluppatori si danno da fare per migliorare i loro strumenti, il mercato per il filtraggio delle immagini è ancora soggetto a dispute. Google fa riferimento alla necessità di proteggere gli utenti "sensibili", mentre AltaVista pubblicizza i suoi filtri come indispensabili. "Un'immagine dice più di mille parole, perciò vogliamo essere certi che la ricerca per immagini sia filtrata per default", ha dichiarato la portavoce di AltaVista Kristi Kaspar. Come ulteriore dimostrazione della necessità di una tecnologia migliore per il filtraggio delle immagini, Lycos ha giudicato quella attuale tanto inadeguata che il controllo famigliare del sito disabilita direttamente le ricerche multimediali. Alcune aziende nel settore del riconoscimento delle immagini hanno riscontrato una necessità potenziale da parte delle imprese di identificare il tipo di immagini scaricate dai dipendenti, mentre altre estendono la tecnologia ad applicazioni di e-commerce, che possono riconoscere un prodotto come un articolo di abbigliamento, e trovarne altri simili in vendita altrove. Ma, almeno secondo un provider di tecnologia di ricerca per immagini, l'utilizzo di fatto è inferiore alla richiesta potenziale.

Google ha osservato che il suo filtro per immagini è ancora in beta e ha detto che gli ingegneri stanno lavorando per migliorarlo. Ma i rappresentanti dell'azienda hanno ammesso che si tratta di un'ardua impresa. Secondo Susan Wojcicki, product manager di Google search, il problema è anche nella definizione di pornografia. "C'è un sacco di pornografia in Rete. Se si trovasse tutta in uno stesso luogo, potremmo eliminarla, ma non è così". Anche con una definizione univoca, però, gli ingegneri si trovano di fronte a un'impresa difficile. Le attuali tecnologie rientrano in tre categorie. Le prima cerca di filtrare le immagini analizzando il testo che le definisce e le accompagna sulla pagina Web. Questo metodo incontra diverse difficoltà. Per esempio molte parole del lessico pornografico rientrano anche nei dizionari di ornitologia, nelle guide sull'allevamento degli animali e nei cataloghi di hardware. Come risultato l'analisi basata sul testo rimanda un gran numero di falsi positivi e falsi negativi, perché elimina, per esempio, i petti di scricciolo ma lascia altri contenuti ben più osceni Ulteriori problemi all'approccio lessicale sono legati alla pornografia in lingua straniera. Per ora il filtro di Google è efficace solo per la lingua inglese. Dopo il filtraggio del testo, il secondo tipo di attacco si basa sulle immagini raccolte da indirizzi Web che si trovano sulla lista nera, dove si presume che vi siano contenuti pornografici. La pornografia si muove più velocemente di quanto si riescano ad aggiornare le liste. Per un ulteriore livello di protezione, molti motori di ricerca basano le loro speranze su un terzo e più complesso metodo, che analizza l'immagine stessa alla ricerca del "color carne" e in base alle forme anatomiche. Ma anche questo metodo ritorna un certo numero di falsi negativi, ovvero immagini pornografiche che aggirano il filtri, e falsi positivi, per cui vengono bloccate immagini innocue. Con questo metodo vengono escluse le immagini di bambini, ma, forse, peggiore di questo è il prezzo che l'analisi dell'immagine fa pagare alle central processing unit (CPU).

"Lo stato attuale della tecnologia è tale per cui non c'è nessun metodo attendibile al cento per cento per escludere la pornografia", ha affermato Wilde di Fast Search & Transfer. I grandi motori di ricerca non hanno ancora attuato questo metodo perché implica un lavoro eccessivo per le CPU, data l'enorme mole di immagini da analizzare. Ma anche con una tecnologia applicabile in questo senso il problema rimane. "Se si analizza la pelle, qual è il colore della pelle" si chiede Wilde. "E' molto complesso. E che cosa è pornografico? Ci sono diverse sensibilità, soprattutto se si guarda al problema da un punto di vista internazionale.

(ZDnet)




Powered By Squid ©