Testata iscritta al tribunale di Roma n. 129/2012 del 3/5/2012. ISSN: 2280-4188

Il Documento Digitale

PROCESSI DECISIONALI E TRATTAMENTO DEI DATI

di Corrado Randaccio

L’uso dei dati per guidare il processo decisionale non è in sé una novità e rientra nell’ambito della analitica per le aziende. La differenza rispetto al passato è che ora vengono raccolte molte più informazioni relative ad ogni elemento rilevante per prendere decisioni, grazie al continuo calo dei costi della raccolta dei dati, immagazzinamento e delle tecniche di Machine Learning.


 

 

1.     Introduzione
Negli ultimi decenni il ciclo di vita dei processi decisionali nelle aziende è andato accorciandosi sempre più. La tempestività nell’individuare nuovi segmenti di mercato, nello scoprire preferenze e comportamenti da parte di clienti, nel ridurre eventuali sprechi nella produzione o nel razionalizzare altri processi aziendali, è diventata vitale per la sopravvivenza delle aziende. Questo è tanto più vero quanto più piccola è la dimensione della realtà aziendale: oggigiorno le Piccole e Medie Imprese (PMI) sono costrette a competere su mercati globali pur non disponendo né delle strutture né delle risorse disponibili invece alle grandi aziende. Tale tempestività, tuttavia, a volte contrasta con la mole dei dati da elaborare per estrarre le informazioni necessarie a supportare il processo decisionale. I dati sono spesso difficilmente recuperabili perché sommersi nell’insieme di informazioni ospitate dal sistema informativo. Il ricorso alle tecnologie dell’informazione è quindi un passo obbligato.

L’uso dei dati per guidare il processo decisionale non è in sé una novità e rientra nell’ambito della analitica per le aziende. La differenza rispetto al passato è che ora vengono raccolte molte più informazioni relative ad ogni elemento rilevante per prendere decisioni, grazie al continuo calo dei costi della raccolta dei dati, immagazzinamento e processing.

Negli ultimi anni la quantità e complessità dei dati a disposizione è cresciuta esponenzialmente, a causa dell’avvento dei canali digitali (web, mobile, social media…) a fianco dei tradizionali canali offline. L’unione delle diverse fonti di dati (offline e online, ma anche interne ed esterne, strutturate e non strutturate) rappresenta una sfida, resa ancora più stimolante dalla disponibilità di informazioni in tempo reale. Gestire le enormi quantità di dati a disposizione può essere scoraggiante. I modelli predittivi rendono questo processo più conveniente, perché riassumono le informazioni e amplificano la loro significatività in relazione agli obiettivi di business, traducendoli in dati utili per azioni concrete, da usare per progettare strategie di mercato (analisi prescrittiva). È per esempio possibile pensare di personalizzare le offerte per un cliente in maniera interattiva basandosi sulle operazioni da lui appena effettuate, o modificare una strategia di mercato puntando sui canali che risultano più efficaci nel momento attuale.

2.     Il ruolo dell’analitica predittiva
Un modello predittivo identifica automaticamente le relazioni all’interno dei dati per prevedere le future tendenze del mercato e i comportamenti dei clienti, per esempio per effettuare forecast sull’efficacia delle prossime campagne di marketing. I dati disponibili sono raggruppati seguendo criteri di rilevanza e relazioni di marketing basate su metriche condivise. I risultati possono fornire ai marketer un visione più chiara riguardo al comportamento dei clienti e a come identificare nuove opportunità di business. Per esempio, i report delle analisi predittive possono dare informazioni su quanto è verosimile che un certo cliente effettui un acquisto, o permettono di identificare un interesse verso particolari prodotti sulla base dello storico delle ricerche e degli acquisti effettuati.

Il processo di analisi predittiva aiuta a scoprire nuove opportunità, mettendo in relazione dati apparentemente poco informativi e traducendoli in insight utili per azioni concrete, da usare per progettare strategie di mercato efficaci. Ogni attività di business necessita di campagne di marketing flessibili, che rispettino i trend correnti di mercato e le esigenze dei clienti. Modelli statistici, data mining e Machine Learning, insieme, permettono di evidenziare le informazioni rilevanti contenute nei dati e sfruttarle per predire risultati e tendenze futuri, con livelli di affidabilità crescenti man mano che nuovi dati vengono incorporati nei modelli.

L’analisi predittiva può essere quindi utilizzata per molteplici scopi ed è compito dell’analista individuare applicazioni innovative sulla base dei dati, delle tecnologie a disposizione e degli obiettivi.

 

…continua su EDICOLeA e sull’APP gratuita (iOSAndroid)

 


Altri articoli di Corrado Randaccio

Knowledge-Graph I “KNOWLEDGE GRAPH” PER COSTRUIRE GRANDI COLLEZIONI STRUTTURATE DI DATI -
di Corrado Randaccio (N. iI_MMXVI)
I "Knowledge Graph" sono un possibile approccio per costruire grandi basi di conoscenza, ovvero collezioni strutturate di dati interpretabili. Un esempio di grafi di conoscenza (Knowledge Graph) distribuiti sono i Linked Data, che potrebbero avere un impatto importante nella nascita di una “Linked Data Economy”.
conservazione PUBBLICATE LE LINEE GUIDA SULLA CONSERVAZIONE DEI DOCUMENTI INFORMATICI -
di Nicola Savino (N. I_MMXVI)
Le linee guida sulla conservazione hanno lo scopo di fornire alle amministrazioni pubbliche tutte le informazioni relative a requisiti, processi, attività e responsabilità in materia di conservazione dei documenti informatici, nel rispetto dei riferimenti normativi vigenti.
int IL RAPPORTO DI BUSINESS INSIDER SULLA SFIDA DELLE BIG IT NEL CAMPO DELL’INTELLIGENZA ARTIFICIALE -
di Corrado Randaccio (N. I_MMXVI)
Un recente rapporto di Business Insider, uno tra i più popolari siti di informazione del business, evidenzia come l’intelligenza artificiale rappresenta il nuovo terreno di sfida fra le Big IT: Microsoft ha infuso l’intelligenza artificiale in Cortana e ha investito nel team Project Oxford, per allenare i Pc a riconoscere 8 stati emotivi; di recente Apple ha acquisito VocalIQ, Perceptio e Emotient; invece Google sta sfruttando l’acquisizione di DeepMind; anche Facebook ritiene l’intelligenza artificiale la nuova frontiera dell’IT.
web_Archive IL WEB COME “ARCHIVIO” E LA SEMANTICA COME STRUMENTO INTELLIGENTE DI ESTRAZIONE DI NUOVE CONOSCENZE -
di Corrado Randaccio (N. IV_MMXV)
Attualmente il Web è può essere considerato come un “archivio” dove trovare una grande quantità di documenti, ciò che manca è una connessione tra i contenuti stabilita dal loro significato (semantica), che permetta la risposta ad interrogazioni anche complesse, magari formulate con linguaggi “naturali”.
watson-analytics BIG DATA e COGNITIVE COMPUTING -
di Corrado Randaccio (N. II_MMXV)
Watson Analytics è una piattaforma di analisi dati cloud-based della statunitense IBM, che poco tempo fa ha visto la luce e che segna la via verso un Cognitive Computing disponibile a chiunque. Watson Analytics è capace di analizzare e elaborare Big Data gratuitamente fino a 10.000 record. I dati vengono elaborati, schematizzati, suddivisi per aree tematiche semanticamente significative in maniera sorprendentemente efficace fino ad arrivare a suggerire la tipologia di analisi da applicare ai vostri dati e addirittura riuscire a rispondere alle vostre domande espresse con linguaggio naturale.
IEF GLI OPEN DATA NEL CONTESTO DELLO EUROPEAN INTEROPERABILITY FRAMEWORK -
di Corrado Randaccio (N. I_MMXV)
Con la locuzione Open Data si identifica una nuova accezione piuttosto recente e maggiormente legata a Internet come canale principale di diffusione dei dati stessi accessibili a tutti, privi di brevetti o altre forme di controllo. L’European Interoperability Framework offre un modello di elaborazione degli Open Data alle organizzazioni e la possibilità di elaborare informazioni da fonti esterne o secondarie senza perdere il reale significato delle informazioni stesse nel processo di elaborazione.
Translate »