ROMA – I massmediologi statunitensi non hanno dubbi: il giornalismo che riuscirà a sopravvivere alla crisi è quello “di precisione”. La qualità come valore aggiunto. Il guru di questa teoria è – sorprendentemente – Philip Meyer. Sorprendentemente perché Meyer, autore di “The vanishing newspaper”, sembrava pronosticare l’evaporazione dell’informazione scritta piuttosto che la sua resurrezione.
Invece, proprio lui indica la strada per vincere l’irruzione della tecnologia e, contemporaneamente, la disaffezione alla lettura. Ricetta semplice, in fondo: si tratta di “allearsi” con il computer utilizzando per l’elaborazione di fogli di calcolo con grafici, sondaggi, costruzione di mappe in modo da proporre al pubblico un reportage completo, capace di catturarne l’attenzione e di mantenerla per tutto il “pezzo”.
Con questo metodo di lavoro e di ricerca, Bill Dedman del “The Atlanta journal and Costitution” ha potuto documentare come gli istituti bancari della Georgia accettavano di offrire mutui a persone di pelle bianca indigenti piuttosto che a quelle di pelle nera della middle class. Tavole, disegni e carte con evidenziate le percentuali economiche hanno completato il resoconto giornalistico.
Gli stessi procedimenti hanno portato Stehpen Doing del “Miami Herald” a indagare sui disastri provocati dal tifone Andrew che si era abbattuto sulla Florida a metà degli anni Novanta. Lo sconquasso, secondo le sue verifiche, non sarebbe stato provocato dalla violenza dell’uragano quanto dalle speculazioni edilizie che avevano consentito di costruire senza le necessarie precauzioni. Il giornale concorrente “Sarasota herald tribune” ha dato seguito all’indagine scandagliando sugli abusi immobiliari che continuavano a essere realizzati.
Dwinght Morris per il “Los Angeles Times”, applicando procedimenti investigativi analoghi, ha scoperto le truffe che venivano realizzate dalle aziende farmaceutiche nel campo dei servizi sanitari. Il “New York Times” e il “Wall street journal”, da fronti diversi e, tuttavia, complementari, hanno potuto rivelare i sotterfugi realizzati dai dirigenti di alcune aziende sui premi delle “stock options” che, però, venivano retrodatate.
Un giornalismo del genere è dispendioso in termini di tempo e, quindi, di denaro. Occorre che un giornalista (e, qualche volta, un’intera equipe) si dedichi a ricerche, analisi e comparazioni per settimane o addirittura per mesi. Soltanto alla fine del lavoro è possibile constatare se l’investimento porta qualche risultato e, dunque, se ne valeva la pena.
Certo, negli Usa, un’informazione così puntuale e di denuncia sta portando risultati incoraggianti sul piano della credibilità dei mass media di carta stampata che si traduce in aumenti di tirature e di vendite.
In Italia siamo un po’ indietro. Tanto indietro che si sta – ancora – almanaccando su come definire questo tipo di giornalismo. Qualcuno, attratto da modelli esterofili, anche linguistici, immagina di indicarlo come giornalismo “computer-assisted” o giornalismo “database”. Altri si lasciano ispirare dalla Francia che ha battezzato questa metodologia come “journalism scientifique” e, quindi, traducono letteralmente: giornalismo scientifico. A costo di qualche confusione con chi (come Piero Angela, per esempio) si considera giornalista scientifico, nel senso che divulga argomenti di materie scientifiche.
Prima di essere applicato e trovare ospitalità nelle pagine italiane, occorre litigare ancora un po’ sul nome da attribuire al giornalismo della qualità e della precisione.
Lorenzo Del Boca