X
<
>

Condividi:
3 minuti per la lettura

Da qualche anno si ritiene che ormai molti testi, documenti, immagini e altro, generati e memorizzati sui computer di tutto il mondo non potranno mai più essere letti dagli umani e solo software molto sofisticati saranno capaci di dirci le cose importanti che in essi sono contenuti. Pagine Web, post di Facebook, cinguettii elettronici di Twitter, video di Youtube, database aziendali, ebook, email, dati provenienti dai telescopi o dagli acceleratori di particelle, news e pagine di giornali digitali sono solo alcuni esempi dell’enorme tsunami di dati che si muove su internet e che rischia di travolgere le nostre vite. Dati che a volte contengono informazioni a noi molto utili e che non sappiamo trovare o usare. Spesso Google ci aiuta a cercare quello che ci serve, ma tante cose Google non le trova, anche se la gente crede erroneamente che Google sappia trovare tutto.

Purtroppo una chiara testimonianza delle difficoltà a sfruttare efficacemente i dati già disponibili è rappresentata dalla pubblica amministrazione italiana che non è certo un esempio di efficienza organizzativa e informativa. Secondo uno studio di alcuni mesi fa  di Nomisma, Iconsulting e DigitPA, le pubbliche amministrazioni detengono circa un milione di gigabyte di dati, un’enorme quantità di informazione in formato digitale, usati pochissimo e male. Questo esempio che per noi è comunque molto rilevante, rappresenta una chiara dimostrazione del fatto che all’aumento dei dati non necessariamente corrisponde un automatico aumento dell’informazione disponibile per i cittadini e dei servizi che su questa informazione posso essere costruiti. Risulta infatti che tante informazioni chieste ai cittadini dal recente censimento Istat erano già a disposizione delle banche dati della pubblica amministrazione che evidentemente, essendo incapace di estrarre quelle informazioni dai suoi archivi digitali, le ha chiesto nuovamente agli italiani con spreco di tempo, denaro e creando dati ridondanti.

I dati pubblici (open data) dovrebbero essere ben organizzati e resi disponibili ai cittadini via internet. Il problema non sempre è di tipo tecnologico, ma anche di tipo organizzativo. Alla pubblica amministrazione italiana non serve tanto acquistare nuovi sistemi informatici, ma trovare utilizzi più intelligenti e più razionali, impiegando sistemi sofisticati di analisi dei dati e di supporto alle decisioni senza far crescere ulteriormente l’enorme patrimonio informativo già disponibile, ma piuttosto usandolo al meglio a servizio della cosa pubblica. Negli ultimi 10 anni le pubbliche amministrazioni centrali e periferiche hanno speso circa 20 miliardi di euro, ma nonostante questo non dispongono di un sistema informativo pubblico efficiente ed intelligente. Il vero problema infatti consiste essenzialmente nel fatto che i dati disponibili non sono usati in maniera produttiva, o almeno non per quanto si dovrebbe e si potrebbe fare. Dobbiamo sperare nella prossima implementazione dell’Agenda Digitale che il governo ha promesso di attuare a breve. Lo studio di Nomisma parla di “scarse capacità di strategie e di business nei confronti dell’utilizzo del dato pubblico, di mancanza di una cultura dei dati intelligente, diffusa e condivisa.” Spesso non serve spendere molto, ma serve spendere bene investendo sull’integrazione delle banche dati pubbliche e sui sistemi di analisi dei dati disponibili che potrebbero, solo per citare un esempio, essere usati per scovare i tanti evasori fiscali che costituiscono per l’Italia un problema di importanza enorme.

Condividi:

COPYRIGHT
Il Quotidiano del Sud © - RIPRODUZIONE RISERVATA

EDICOLA DIGITALE