Ancora in alto mare la tecnologia dei filtri contro la pornografia.
Le società che gestiscono motori di ricerca stanno integrando
metodi di censura per attirare clienti quali aziende, scuole
e genitori, ma mostrano ancora troppi nudi. Le carenze dei filtri
antipornografia sono risultate chiare la scorsa settimana quando
Google ha lanciato la versione test di un motore di ricerca
con un filtro per escludere "contenuti per soli adulti". Ma
anche con il filtro attivato, risultavano parecchi siti con
immagini pornografiche, spesso associati a parole chiave che
non hanno un primo significato di tipo erotico. "Il filtro elimina
molte immagini per adulti, ma non può garantire che tutti quei
contenuti vengano eliminati" ha ammesso Google sul suo sito
Web. Google non è sola, nella difficile battaglia per filtrare
immagini pornografiche o comunque inopportune. Aziende che producono
tecnologie per il riconoscimento delle immagini ammettono che
il livello di conoscenze tecnologiche è ancora rudimentale,
e rende risultati imprecisi. Anche se gli sviluppatori si danno
da fare per migliorare i loro strumenti, il mercato per il filtraggio
delle immagini è ancora soggetto a dispute. Google fa riferimento
alla necessità di proteggere gli utenti "sensibili", mentre
AltaVista pubblicizza i suoi filtri come indispensabili. "Un'immagine
dice più di mille parole, perciò vogliamo essere certi che la
ricerca per immagini sia filtrata per default", ha dichiarato
la portavoce di AltaVista Kristi Kaspar. Come ulteriore dimostrazione
della necessità di una tecnologia migliore per il filtraggio
delle immagini, Lycos ha giudicato quella attuale tanto inadeguata
che il controllo famigliare del sito disabilita direttamente
le ricerche multimediali. Alcune aziende nel settore del riconoscimento
delle immagini hanno riscontrato una necessità potenziale da
parte delle imprese di identificare il tipo di immagini scaricate
dai dipendenti, mentre altre estendono la tecnologia ad applicazioni
di e-commerce, che possono riconoscere un prodotto come un articolo
di abbigliamento, e trovarne altri simili in vendita altrove.
Ma, almeno secondo un provider di tecnologia di ricerca per
immagini, l'utilizzo di fatto è inferiore alla richiesta potenziale.
Google ha osservato che il suo filtro per immagini è ancora
in beta e ha detto che gli ingegneri stanno lavorando per migliorarlo.
Ma i rappresentanti dell'azienda hanno ammesso che si tratta
di un'ardua impresa. Secondo Susan Wojcicki, product manager
di Google search, il problema è anche nella definizione di pornografia.
"C'è un sacco di pornografia in Rete. Se si trovasse tutta in
uno stesso luogo, potremmo eliminarla, ma non è così". Anche
con una definizione univoca, però, gli ingegneri si trovano
di fronte a un'impresa difficile. Le attuali tecnologie rientrano
in tre categorie. Le prima cerca di filtrare le immagini analizzando
il testo che le definisce e le accompagna sulla pagina Web.
Questo metodo incontra diverse difficoltà. Per esempio molte
parole del lessico pornografico rientrano anche nei dizionari
di ornitologia, nelle guide sull'allevamento degli animali e
nei cataloghi di hardware. Come risultato l'analisi basata sul
testo rimanda un gran numero di falsi positivi e falsi negativi,
perché elimina, per esempio, i petti di scricciolo ma lascia
altri contenuti ben più osceni Ulteriori problemi all'approccio
lessicale sono legati alla pornografia in lingua straniera.
Per ora il filtro di Google è efficace solo per la lingua inglese.
Dopo il filtraggio del testo, il secondo tipo di attacco si
basa sulle immagini raccolte da indirizzi Web che si trovano
sulla lista nera, dove si presume che vi siano contenuti pornografici.
La pornografia si muove più velocemente di quanto si riescano
ad aggiornare le liste. Per un ulteriore livello di protezione,
molti motori di ricerca basano le loro speranze su un terzo
e più complesso metodo, che analizza l'immagine stessa alla
ricerca del "color carne" e in base alle forme anatomiche. Ma
anche questo metodo ritorna un certo numero di falsi negativi,
ovvero immagini pornografiche che aggirano il filtri, e falsi
positivi, per cui vengono bloccate immagini innocue. Con questo
metodo vengono escluse le immagini di bambini, ma, forse, peggiore
di questo è il prezzo che l'analisi dell'immagine fa pagare
alle central processing unit (CPU).
"Lo stato attuale della tecnologia è tale per cui non c'è nessun
metodo attendibile al cento per cento per escludere la pornografia",
ha affermato Wilde di Fast Search & Transfer. I grandi motori
di ricerca non hanno ancora attuato questo metodo perché implica
un lavoro eccessivo per le CPU, data l'enorme mole di immagini
da analizzare. Ma anche con una tecnologia applicabile in questo
senso il problema rimane. "Se si analizza la pelle, qual è il
colore della pelle" si chiede Wilde. "E' molto complesso. E
che cosa è pornografico? Ci sono diverse sensibilità, soprattutto
se si guarda al problema da un punto di vista internazionale.
(ZDnet)