Testata iscritta al tribunale di Roma n. 129/2012 del 3/5/2012. ISSN: 2280-4188

Il Documento Digitale

GLI OPEN DATA NEL CONTESTO DELLO EUROPEAN INTEROPERABILITY FRAMEWORK

di Corrado Randaccio

Con la locuzione Open Data si identifica una nuova accezione piuttosto recente e maggiormente legata a Internet come canale principale di diffusione dei dati stessi accessibili a tutti, privi di brevetti o altre forme di controllo.
L’European Interoperability Framework offre un modello di elaborazione degli Open Data alle organizzazioni e la possibilità di elaborare informazioni da fonti esterne o secondarie senza perdere il reale significato delle informazioni stesse nel processo di elaborazione.

 


 

l termine Open Data è ormai sempre più utilizzato e assistiamo sempre più alle numerose iniziative di Pubbliche Amministrazioni, con tanto di portali e contest che lo associano ad un assetto di trasparenza amministrativa, strettamente connesso con forme di cittadinanza attiva o democrazia diretta. La mancanza di chiarezza sul termine ostacola l’importanza che l’Open Data può avere su tutti coloro che potrebbero beneficiare della disponibilità dei dati liberamente accessibili a tutti, privi di brevetti o altre forme di controllo.
Una definizione comunemente accettata di Open Data è quella fornita dall’Open Data Manual 1 : “dati che possono essere liberamente utilizzati, riutilizzati e redistribuiti, con la sola limitazione – al massimo – della richiesta di attribuzione  dell’autore e della redistribuzione allo stesso modo (ossia senza che vengano effettuate modifiche)”
È bene differenziare sin da subito il concetto di trasparenza da quello di apertura. Il concetto di apertura include quello di trasparenza, ma non necessariamente è vero il contrario. In altri termini, non è sufficiente la trasparenza così come definita nel nostro ordinamento giuridico perché si possa parlare di Open Data . Partendo dal concetto di conoscenza aperta così come delineato dalla Open Knowledge Foundation, una fondazione no profit con lo scopo di promuovere l’apertura dei contenuti e i dati aperti, anche l’Open Data può essere caratterizzato dai seguenti principi:

  • Disponibilità e accesso: il prezzo della disponibilità dei dati, resi in un formato utile e modificabile, non deve essere superiore a un ragionevole costo di riproduzione, preferibilmente mediante scaricamento da Internet;
  • Riutilizzo e ridistribuzione: i dati devono essere forniti nelle condizioni utili al loro riutilizzo e ridistribuzione;
  • Partecipazione universale: non devono essere poste discriminazioni di ambiti di iniziativa in riferimento a soggetti o gruppi, le restrizioni che permettono l’uso solo per determinati fini non sono contemplabili.

Per garantire i principi sopra elencati è necessario che i dati – per considerarsi aperti in base agli standard internazionali – siano 2 :

  • Completi: i dati devono comprendere tutte le componenti (metadati) che consentano di esportarli, utilizzarli on line e off line, integrarli e aggregarli con altre risorse e diffonderli in rete;
  • Primari: le risorse digitali devono essere strutturate in modo tale che i dati siano presentati in maniera sufficientemente granulare, così che possano essere utilizzate dagli utenti per integrarle e aggregarle con altri dati e contenuti in formato digitale;
  • Tempestivi: gli utenti devono essere messi in condizione di accedere e utilizzare i dati presenti in rete in modo rapido e immediato.

 

…continua su EDICOLeA e sull’APP gratuita (iOSAndroid)

 


 

Altri articoli di Corrado Randacio

Knowledge-Graph I “KNOWLEDGE GRAPH” PER COSTRUIRE GRANDI COLLEZIONI STRUTTURATE DI DATI
di Corrado Randaccio (N. iI_MMXVI)
I "Knowledge Graph" sono un possibile approccio per costruire grandi basi di conoscenza, ovvero collezioni strutturate di dati interpretabili. Un esempio di grafi di conoscenza (Knowledge Graph) distribuiti sono i Linked Data, che potrebbero avere un impatto importante nella nascita di una “Linked Data Economy”.
conservazione PUBBLICATE LE LINEE GUIDA SULLA CONSERVAZIONE DEI DOCUMENTI INFORMATICI
di Nicola Savino (N. I_MMXVI)
Le linee guida sulla conservazione hanno lo scopo di fornire alle amministrazioni pubbliche tutte le informazioni relative a requisiti, processi, attività e responsabilità in materia di conservazione dei documenti informatici, nel rispetto dei riferimenti normativi vigenti.
int IL RAPPORTO DI BUSINESS INSIDER SULLA SFIDA DELLE BIG IT NEL CAMPO DELL’INTELLIGENZA ARTIFICIALE
di Corrado Randaccio (N. I_MMXVI)
Un recente rapporto di Business Insider, uno tra i più popolari siti di informazione del business, evidenzia come l’intelligenza artificiale rappresenta il nuovo terreno di sfida fra le Big IT: Microsoft ha infuso l’intelligenza artificiale in Cortana e ha investito nel team Project Oxford, per allenare i Pc a riconoscere 8 stati emotivi; di recente Apple ha acquisito VocalIQ, Perceptio e Emotient; invece Google sta sfruttando l’acquisizione di DeepMind; anche Facebook ritiene l’intelligenza artificiale la nuova frontiera dell’IT.
web_Archive IL WEB COME “ARCHIVIO” E LA SEMANTICA COME STRUMENTO INTELLIGENTE DI ESTRAZIONE DI NUOVE CONOSCENZE
di Corrado Randaccio (N. IV_MMXV)
Attualmente il Web è può essere considerato come un “archivio” dove trovare una grande quantità di documenti, ciò che manca è una connessione tra i contenuti stabilita dal loro significato (semantica), che permetta la risposta ad interrogazioni anche complesse, magari formulate con linguaggi “naturali”.
privacy-officer PROCESSI DECISIONALI E TRATTAMENTO DEI DATI
di Corrado Randaccio (N. III_MMXV)
L’uso dei dati per guidare il processo decisionale non è in sé una novità e rientra nell’ambito della analitica per le aziende. La differenza rispetto al passato è che ora vengono raccolte molte più informazioni relative ad ogni elemento rilevante per prendere decisioni, grazie al continuo calo dei costi della raccolta dei dati, immagazzinamento e delle tecniche di Machine Learning.
watson-analytics BIG DATA e COGNITIVE COMPUTING
di Corrado Randaccio (N. II_MMXV)
Watson Analytics è una piattaforma di analisi dati cloud-based della statunitense IBM, che poco tempo fa ha visto la luce e che segna la via verso un Cognitive Computing disponibile a chiunque. Watson Analytics è capace di analizzare e elaborare Big Data gratuitamente fino a 10.000 record. I dati vengono elaborati, schematizzati, suddivisi per aree tematiche semanticamente significative in maniera sorprendentemente efficace fino ad arrivare a suggerire la tipologia di analisi da applicare ai vostri dati e addirittura riuscire a rispondere alle vostre domande espresse con linguaggio naturale.
Translate »