Testata iscritta al tribunale di Roma n. 129/2012 del 3/5/2012. ISSN: 2280-4188

Il Documento Digitale

GLI OPEN DATA NEL CONTESTO DELLO EUROPEAN INTEROPERABILITY FRAMEWORK

di Corrado Randaccio

Con la locuzione Open Data si identifica una nuova accezione piuttosto recente e maggiormente legata a Internet come canale principale di diffusione dei dati stessi accessibili a tutti, privi di brevetti o altre forme di controllo.
L’European Interoperability Framework offre un modello di elaborazione degli Open Data alle organizzazioni e la possibilità di elaborare informazioni da fonti esterne o secondarie senza perdere il reale significato delle informazioni stesse nel processo di elaborazione.

 


 

l termine Open Data è ormai sempre più utilizzato e assistiamo sempre più alle numerose iniziative di Pubbliche Amministrazioni, con tanto di portali e contest che lo associano ad un assetto di trasparenza amministrativa, strettamente connesso con forme di cittadinanza attiva o democrazia diretta. La mancanza di chiarezza sul termine ostacola l’importanza che l’Open Data può avere su tutti coloro che potrebbero beneficiare della disponibilità dei dati liberamente accessibili a tutti, privi di brevetti o altre forme di controllo.
Una definizione comunemente accettata di Open Data è quella fornita dall’Open Data Manual 1 : “dati che possono essere liberamente utilizzati, riutilizzati e redistribuiti, con la sola limitazione – al massimo – della richiesta di attribuzione  dell’autore e della redistribuzione allo stesso modo (ossia senza che vengano effettuate modifiche)”
È bene differenziare sin da subito il concetto di trasparenza da quello di apertura. Il concetto di apertura include quello di trasparenza, ma non necessariamente è vero il contrario. In altri termini, non è sufficiente la trasparenza così come definita nel nostro ordinamento giuridico perché si possa parlare di Open Data . Partendo dal concetto di conoscenza aperta così come delineato dalla Open Knowledge Foundation, una fondazione no profit con lo scopo di promuovere l’apertura dei contenuti e i dati aperti, anche l’Open Data può essere caratterizzato dai seguenti principi:

  • Disponibilità e accesso: il prezzo della disponibilità dei dati, resi in un formato utile e modificabile, non deve essere superiore a un ragionevole costo di riproduzione, preferibilmente mediante scaricamento da Internet;
  • Riutilizzo e ridistribuzione: i dati devono essere forniti nelle condizioni utili al loro riutilizzo e ridistribuzione;
  • Partecipazione universale: non devono essere poste discriminazioni di ambiti di iniziativa in riferimento a soggetti o gruppi, le restrizioni che permettono l’uso solo per determinati fini non sono contemplabili.

Per garantire i principi sopra elencati è necessario che i dati – per considerarsi aperti in base agli standard internazionali – siano 2 :

  • Completi: i dati devono comprendere tutte le componenti (metadati) che consentano di esportarli, utilizzarli on line e off line, integrarli e aggregarli con altre risorse e diffonderli in rete;
  • Primari: le risorse digitali devono essere strutturate in modo tale che i dati siano presentati in maniera sufficientemente granulare, così che possano essere utilizzate dagli utenti per integrarle e aggregarle con altri dati e contenuti in formato digitale;
  • Tempestivi: gli utenti devono essere messi in condizione di accedere e utilizzare i dati presenti in rete in modo rapido e immediato.

 

…continua su EDICOLeA e sull’APP gratuita (iOSAndroid)

 


 

Altri articoli di Corrado Randacio

Knowledge-Graph I “KNOWLEDGE GRAPH” PER COSTRUIRE GRANDI COLLEZIONI STRUTTURATE DI DATI -
di Corrado Randaccio (N. iI_MMXVI)
I "Knowledge Graph" sono un possibile approccio per costruire grandi basi di conoscenza, ovvero collezioni strutturate di dati interpretabili. Un esempio di grafi di conoscenza (Knowledge Graph) distribuiti sono i Linked Data, che potrebbero avere un impatto importante nella nascita di una “Linked Data Economy”.
conservazione PUBBLICATE LE LINEE GUIDA SULLA CONSERVAZIONE DEI DOCUMENTI INFORMATICI -
di Nicola Savino (N. I_MMXVI)
Le linee guida sulla conservazione hanno lo scopo di fornire alle amministrazioni pubbliche tutte le informazioni relative a requisiti, processi, attività e responsabilità in materia di conservazione dei documenti informatici, nel rispetto dei riferimenti normativi vigenti.
int IL RAPPORTO DI BUSINESS INSIDER SULLA SFIDA DELLE BIG IT NEL CAMPO DELL’INTELLIGENZA ARTIFICIALE -
di Corrado Randaccio (N. I_MMXVI)
Un recente rapporto di Business Insider, uno tra i più popolari siti di informazione del business, evidenzia come l’intelligenza artificiale rappresenta il nuovo terreno di sfida fra le Big IT: Microsoft ha infuso l’intelligenza artificiale in Cortana e ha investito nel team Project Oxford, per allenare i Pc a riconoscere 8 stati emotivi; di recente Apple ha acquisito VocalIQ, Perceptio e Emotient; invece Google sta sfruttando l’acquisizione di DeepMind; anche Facebook ritiene l’intelligenza artificiale la nuova frontiera dell’IT.
web_Archive IL WEB COME “ARCHIVIO” E LA SEMANTICA COME STRUMENTO INTELLIGENTE DI ESTRAZIONE DI NUOVE CONOSCENZE -
di Corrado Randaccio (N. IV_MMXV)
Attualmente il Web è può essere considerato come un “archivio” dove trovare una grande quantità di documenti, ciò che manca è una connessione tra i contenuti stabilita dal loro significato (semantica), che permetta la risposta ad interrogazioni anche complesse, magari formulate con linguaggi “naturali”.
privacy-officer PROCESSI DECISIONALI E TRATTAMENTO DEI DATI -
di Corrado Randaccio (N. III_MMXV)
L’uso dei dati per guidare il processo decisionale non è in sé una novità e rientra nell’ambito della analitica per le aziende. La differenza rispetto al passato è che ora vengono raccolte molte più informazioni relative ad ogni elemento rilevante per prendere decisioni, grazie al continuo calo dei costi della raccolta dei dati, immagazzinamento e delle tecniche di Machine Learning.
watson-analytics BIG DATA e COGNITIVE COMPUTING -
di Corrado Randaccio (N. II_MMXV)
Watson Analytics è una piattaforma di analisi dati cloud-based della statunitense IBM, che poco tempo fa ha visto la luce e che segna la via verso un Cognitive Computing disponibile a chiunque. Watson Analytics è capace di analizzare e elaborare Big Data gratuitamente fino a 10.000 record. I dati vengono elaborati, schematizzati, suddivisi per aree tematiche semanticamente significative in maniera sorprendentemente efficace fino ad arrivare a suggerire la tipologia di analisi da applicare ai vostri dati e addirittura riuscire a rispondere alle vostre domande espresse con linguaggio naturale.
Translate »