Testata iscritta al tribunale di Roma n. 129/2012 del 3/5/2012. ISSN: 2280-4188

Il Documento Digitale

IL RAPPORTO DI BUSINESS INSIDER SULLA SFIDA DELLE BIG IT NEL CAMPO DELL’INTELLIGENZA ARTIFICIALE

di Corrado Randaccio

Un recente rapporto di Business Insider, uno tra i più popolari siti di informazione del business, evidenzia come l’intelligenza artificiale rappresenta il nuovo terreno di sfida fra le Big IT: Microsoft ha infuso l’intelligenza artificiale in Cortana e ha investito nel team Project Oxford, per allenare i Pc a riconoscere 8 stati emotivi; di recente Apple ha acquisito VocalIQ, Perceptio e Emotient; invece Google sta sfruttando l’acquisizione di DeepMind; anche Facebook ritiene l’intelligenza artificiale la nuova frontiera dell’IT.

pdf-icon

 

1.     Introduzione
L’idea di fondo della ricerca nel campo dell’intelligenza artificiale (I.A.) è che la mente umana possa essere scomposta nei suoi elementi di base e simulata con precisione, al punto che una macchina dotata di tali capacità dovrebbe essere indistinguibile – in quanto a comportamento e ragionamenti – da un essere umano. A partire dal 1980 l’I.A. è uscita dai laboratori scientifici e ha trovato applicazioni pratiche significative.
Contemporaneamente, e per conseguenza, aziende industriali specialmente americane e giapponesi hanno incominciato a mettere in commercio programmi dedicati ai sistemi esperti, al riconoscimento di configurazioni e così via, ed hanno costruito microcircuiti ed interi elaboratori specializzati per applicazioni dell’I.A. Le reti neurali, dopo poco meno vent’anni di quasi completo disinteresse, hanno ricevuto nuova attenzione a partire dal 1985, in particolare a causa della definizione di nuovi, più potenti algoritmi di ottimizzazione.

Nell’ultimo decennio del secolo, al perfezionamento delle reti neurali si è affiancato lo sviluppo di nuovi procedimenti di calcolo, soprattutto derivati dalla teoria delle probabilità e delle decisioni; e, sul versante delle applicazioni, sono stati sviluppati metodi efficaci per la costruzione dei sistemi esperti e per il riconoscimento del parlato e delle forme, questi ultimi specialmente destinati alla robotica e alla visione artificiale.

Un sistema esperto, ossia un «sistema basato sulla conoscenza», è uno strumento in grado di risolvere problemi in un dominio limitato, ma con prestazioni simili a quelle di un esperto umano del dominio stesso. Questo significa che il compito fondamentale di un sistema esperto è quello di coadiuvare l’attività di utenze professionali, laddove è usualmente richiesta la consulenza di uno specialista umano dotato di competenza (expertise) e capacità di giudizio. Le ricerche di I.A. hanno posto luce sui problemi realizzativi di tali strumenti, affermando la necessità di restringere, per quanto possibile, il campo di applicazione. Dunque, rispetto ad un esperto umano, questi applicativi software, si rivelano certamente più limitati e superficiali, non disponendo di quella completezza che costituisce la conoscenza culturale della persona competente. Inoltre non è possibile sperare che un sistema esperto possa giungere a conclusioni in maniera intuitiva o saltando alcuni passaggi logici, affidandosi al “buon senso” o al meccanismo della analogia, com’è invece prerogativa dell’uomo. In definitiva, viene simulato un esperto umano con tratti più o meno abbozzati, e lo si fornisce della capacità di risolvere compiti ristretti, temporanei o secondari.

Il primo e più noto di tali sistemi è “Mycin”, sviluppato da E.M. Shortleffe a partire dal 1972 ed applicato in campo medico. Per quanto riguarda più specificatamente i tipi di problemi che un sistema esperto come “Mycin” può essere chiamato a risolvere, si può stendere una lista di argomenti, ovviamente non esaustiva:

  • “diagnosi”: si tratta di individuare, in base al riconoscimento di determinati sintomi, le possibili cause di
  • “malfunzionamento” e suggerire un cammino di cura;
  • “monitoraggio”: viene seguito lo sviluppo temporale di un processo; si procede al controllo dell’acquisizione e dell’elaborazione di dati di vario tipo, fornendo in uscita informazioni sintetiche sullo stato e stime sulla sua evoluzione;
  • “pianificazione”: note le risorse a disposizione, se ne individua l’impiego ottimo allo scopo di conseguire un certo obiettivo entro un dato tempo; parallelamente si indirizza l’acquisizione di nuove risorse;
  • “interpretazione di informazioni e segnali”: avendo in ingresso una serie di dati relativi ad un certo àmbito, si vuole effettuare una valutazione complessiva al fine di riconoscere il presentarsi di alcune situazioni predeterminate.

Un altro campo applicativo in cui questo tipo di approccio, simbolico e ingegneristico, ha avuto notevoli successi è quello dei giochi. L’ I.A. considera generalmente giochi a due giocatori in cui le mosse sono alternate e interpreta lo svolgersi del gioco come un “albero” in cui la “radice” è la posizione di partenza e le “foglie” sono le posizioni finali (vincenti o perdenti). Ovviamente, a causa della complessità dei giochi trattati, sarebbe impensabile, anche per un potentissimo computer, di sviluppare completamente tutto l’albero per decidere la mossa “migliore”. Ecco quindi la necessità di applicare opportune euristiche per “potare” alcuni rami dell’albero e rendere il problema trattabile. Si pensi al gioco degli scacchi in cui la dimensione del problema è enorme. Solo all’inizio partita le mosse possibili sono 400, diventano più di 144.000 alla seconda mossa.

Sviluppando l’albero di gioco avremmo circa 35100 nodi. Applicando tecniche di manipolazione simbolica e utilizzando metodi potenti per ridurre la dimensione dello spazio di ricerca, altrimenti intrattabile, si sono prodotti comunque sistemi in grado di giocare a scacchi meglio dell’uomo, anche se, ovviamente, utilizzando tecniche ben differenti da quelle umane. È infatti noto che nel maggio 1997, a New York, una macchina (Deep Blue) ha battuto in un match di sei partite il campione del mondo Kasparov.
E’ interessante sottolineare che tale macchina, appositamente progettata a livello hardware per riuscire a sviluppare ed esaminare spazi di ricerca in parallelo in tempi rapidissimi (si pensi che Deep Blue arriva ad esplorare 1011 posizioni in circa 3 minuti) utilizza la “forza bruta” piuttosto che tecniche euristiche raffinate per giungere rapidamente alla soluzione migliore.

Molte critiche sono state portate agli attuali sistemi di I.A., sicuramente essi sono poveri e deludenti se confrontati con le prime aspettative dell’intelligenza artificiale. Non si sono visti, in effetti, passi da gigante ed i problemi più impegnativi quali, ad esempio, l’apprendimento e la rappresentazione del comune buon senso, anche se affrontati e risolti parzialmente, sono ben lontani da una completa soluzione. Per quello che riguarda l’approccio funzionale all’I.A., nonostante i molti punti a favore del modello architetturale dei sistemi basati sulla conoscenza come la modularità dell’architettura e la possibilità di una crescita incrementale della conoscenza, solo pochi sistemi esperti commerciali sono veramente operativi, costituendo peraltro una percentuale molto bassa rispetto ai programmi convenzionali. Un pesante “collo di bottiglia” per la loro diffusione è senz’altro quello dell’acquisizione della conoscenza. È particolarmente complesso, infatti, estrarre in modo completo la conoscenza da un sistema esperto e riuscire formalizzarla nella base di conoscenza. Inoltre tali sistemi hanno un alto costo di mantenimento ed aggiornamento. D’altro canto, l’alternativa all’approccio funzionale rappresentato da connessionismo e reti neurali, trova applicazioni anche di successo, ma spesso limitate alla soluzione di problemi ritenuti di più basso livello quali la percezione e il riconoscimento.

Per quanto riguarda le prospettive future, attualmente la rivoluzione tecnologica che porta alla società dell’informazione dà la possibilità di accedere ad un’enorme mole di materiale informativo, che deve però essere gestito ed interpretato in maniera corretta. Si va dai grandi archivi aziendali all’informazione on line, aggiornata “in tempo reale”; dalla capacità di cogliere lo scibile nelle sue manifestazioni più pratiche — come l’esperienza maturata “sul campo” dallo specialista — all’indagine del dettaglio, volta a traguardi sempre più accurati. Ogni proposito di sviluppo si trova ad affrontare una mole non strutturata di dati eterogenei e ridondanti. Pare dunque giustificato cercare non solo di rafforzare, ma soprattutto di rivoluzionare gli strumenti di estrazione e di analisi dell’informazione, al fine di utilizzare questo grande patrimonio conoscitivo al meglio delle sue potenzialità.

Diventa quindi fondamentale l’uso delle metodologie per l’estrazione della conoscenza, che utilizzano tecniche di apprendimento simbolico e reti neurali.
Attualmente vi è anche una forte spinta all’integrazione dei sistemi di I.A., ed in particolare dei sistemi esperti con il resto del mondo dell’ingegneria dell’informazione, ove ritroviamo l’uso corrente di tecnologie quali la programmazione o la costruzione di basi di dati “orientate agli oggetti” (Object Oriented Programming e Object Oriented Data Base) e le “interfacce grafiche” (Graphic User Interfaces), talune delle quali sono originariamente nate proprio nell’ambito dell’I.A.

Un fenomeno importante è la tendenza all’estinzione del sistema esperto, inteso come applicazione a sé stante, a vantaggio di una visione integrata: si tende infatti a realizzare moduli che producano task “intelligenti”, strettamente integrati nelle applicazioni software e nei sistemi informativi generali. L’idea è quindi quella di costruire “agenti intelligenti” con capacità di ragionamento deduttive ed induttive, preposti a particolari compiti e in grado di coordinarsi con altri agenti in ambito distribuito al fine di raggiungere insieme un unico obiettivo. Le funzioni realizzate da tali agenti intelligenti devono integrarsi con le funzioni realizzate da altri moduli, magari preesistenti al sistema stesso, quali l’interfaccia con l’operatore, i sistemi di gestione degli archivi (DBMS, Data BaseManagement System), i moduli di acquisizione dati e i sistemi grafici. In questi campi l’I.A ha già colto, e potrà ancora cogliere, nuovi importanti successi.

2.     Il rapporto di Business Insider
Un recente rapporto di Business Insider, un popolare sito di news americano da 24 milioni di utenti al mese, che tratta principalmente di finanza e tecnologia, illustra come i progressi nella ricerca sull’intelligenza artificiale, focalizzata sulla programmazione di dispositivi in grado di eseguire pensieri e astrazioni di alto livello, stiano aiutando i social network e i loro inserzionisti ad ottimizzare questo vasto oceano di dati di consumo attualmente non sufficientemente strutturati. Grazie alle nuove tecnologie, quindi, i social media avrebbero il potenziale per diventare molto più personalizzati, e nuovi settori della pubblicità e del marketing andrebbero incontro ad una rapida ascesa: si parla di nuovi metodi di clusterizzazione delle audience, di marketing predittivo e di sofisticate analisi di brand sentiment.

Ma qual è lo stato attuale delle Big IT della rete impegnate in materia d’intelligenza artificiale? Secondo il rapporto, Facebook ha lanciato un nuovo laboratorio di ricerca, in partnership con il New York University’s Center for Data Science, dedicato interamente all’intelligenza artificiale. La supervisione del progetto è affidata all’esperto Yann LeCun, che ha dato personalmente la notizia del suo coinvolgimento in questa attività attraverso il suo profilo facebook nel mese di dicembre del 2013.
LeCun, docente della New York University, è uno degli specialisti mondiali del ”Deep Learning”, branca della ricerca sull’intelligenza artificiale che studia come analizzare dati usando reti simulate delle cellule cerebrali. La ”Deep Learning” si colloca quel campo di ricerca dell’apprendimento automatico e dell’intelligenza artificiale che si basa su diversi livelli di rappresentazione, corrispondenti a gerarchie di caratteristiche di fattori o concetti, dove i concetti di alto livello sono definiti sulla base di quelli di basso.

La ”Deep Learning” recupera un concetto storico dell’I.A., le reti neurali (modelli matematici che simulano i processi del cervello umano, “imparando” più in fretta) sistemano i dati raccolti in modo gerarchico, organizzandoli in livelli crescenti di astrazione, una competenza finora ritenuta esclusiva degli esseri umani. Ad esempio il gruppo del Google Brain, guidato da Andrew Ng e Jeff Dean, ha creato una rete neurale che ha imparato a riconoscere concetti complessi, come quello di “gatto”, semplicemente osservando immagini prelevate dalla rete.

L’esperienza di LeCun nei sistemi di riconoscimento di linguaggio e di immagini potrebbe aiutare Facebook a determinare cosa gli utenti vogliono vedere nel News Feed ma anche – ad esempio – come vogliono organizzare le proprie foto. Tecniche avanzate che, secondo alcuni studiosi, portano anche a ‘capire’ quali sono le inserzioni pubblicitarie sulle quali un utente è più incline a cliccare. Tra l’altro Facebook, ha annunciato (tra le proteste degli editori) un importante aggiornamento in base al quale gli utenti già da ora visualizzano le notizie ‘più rilevanti’ e le condivisioni ‘più interessanti’ dei contatti.

Google, da parte sua, ha acquisito DeepMind, una società impegnata nella costruzione di algoritmi di apprendimento per l’e-commerce, simulazioni e giochi, per la cifra di 400 milioni di dollari. Sono più di 50 i dipendenti della nuova azienda considerati tra gli esperti più talentuosi nel campo della Intelligenza Aritificiale e l’assunzione di un pioniere della materia, come Geoff Hinton, docente presso l’università di Toronto, per migliorare la ricerca vocale di Android completa il quadro estremamente positivo delle risorse professionali a disposizione della casa di Mountain View per questa nuova impresa.

Anche LinkedIn non rimane a guardare. Il social dedicato ai contatti professionali ha di recente acquisito la start up Bright, una società che utilizza algoritmi per consigliare a chi cerca lavoro delle proposte di impiego pertinenti alle proprie qualifiche e capacità. L’acquisto di Bright, che ammonta a 120 milioni di dollari, rappresenta la maggiore acquisizione per Linkedin fin dalla sua nascita, dopo le spese non di poco conto per Slideshare (119 milioni di dollari) e Pulse (90 milioni di dollari).

Pinterest, invece, ha acquisito VisualGraph, una società specializzata nel riconoscimento delle immagini e nella ricerca visiva. Nel curriculum del Ceo di VisualGraph, Kevin Jang, c’è la collaborazione con Google per la costruzione della prima applicazione di visione artificiale per l’implementazione della ricerca di immagini.

In sostanza i big dei social media hanno già investito ingenti somme e agganciato i migliori esperti del settore per lavorare sull’’intelligenza artificiale. Ora, considerata la concorrenza e la caratura delle aziende in questione, non resta che vedere l’evoluzione di questi progetti e i tempi di sviluppo. ©

 


Altri articoli di Corrado Randaccio

Knowledge-Graph I “KNOWLEDGE GRAPH” PER COSTRUIRE GRANDI COLLEZIONI STRUTTURATE DI DATI -
di Corrado Randaccio (N. iI_MMXVI)
I "Knowledge Graph" sono un possibile approccio per costruire grandi basi di conoscenza, ovvero collezioni strutturate di dati interpretabili. Un esempio di grafi di conoscenza (Knowledge Graph) distribuiti sono i Linked Data, che potrebbero avere un impatto importante nella nascita di una “Linked Data Economy”.
conservazione PUBBLICATE LE LINEE GUIDA SULLA CONSERVAZIONE DEI DOCUMENTI INFORMATICI -
di Nicola Savino (N. I_MMXVI)
Le linee guida sulla conservazione hanno lo scopo di fornire alle amministrazioni pubbliche tutte le informazioni relative a requisiti, processi, attività e responsabilità in materia di conservazione dei documenti informatici, nel rispetto dei riferimenti normativi vigenti.
web_Archive IL WEB COME “ARCHIVIO” E LA SEMANTICA COME STRUMENTO INTELLIGENTE DI ESTRAZIONE DI NUOVE CONOSCENZE -
di Corrado Randaccio (N. IV_MMXV)
Attualmente il Web è può essere considerato come un “archivio” dove trovare una grande quantità di documenti, ciò che manca è una connessione tra i contenuti stabilita dal loro significato (semantica), che permetta la risposta ad interrogazioni anche complesse, magari formulate con linguaggi “naturali”.
privacy-officer PROCESSI DECISIONALI E TRATTAMENTO DEI DATI -
di Corrado Randaccio (N. III_MMXV)
L’uso dei dati per guidare il processo decisionale non è in sé una novità e rientra nell’ambito della analitica per le aziende. La differenza rispetto al passato è che ora vengono raccolte molte più informazioni relative ad ogni elemento rilevante per prendere decisioni, grazie al continuo calo dei costi della raccolta dei dati, immagazzinamento e delle tecniche di Machine Learning.
watson-analytics BIG DATA e COGNITIVE COMPUTING -
di Corrado Randaccio (N. II_MMXV)
Watson Analytics è una piattaforma di analisi dati cloud-based della statunitense IBM, che poco tempo fa ha visto la luce e che segna la via verso un Cognitive Computing disponibile a chiunque. Watson Analytics è capace di analizzare e elaborare Big Data gratuitamente fino a 10.000 record. I dati vengono elaborati, schematizzati, suddivisi per aree tematiche semanticamente significative in maniera sorprendentemente efficace fino ad arrivare a suggerire la tipologia di analisi da applicare ai vostri dati e addirittura riuscire a rispondere alle vostre domande espresse con linguaggio naturale.
IEF GLI OPEN DATA NEL CONTESTO DELLO EUROPEAN INTEROPERABILITY FRAMEWORK -
di Corrado Randaccio (N. I_MMXV)
Con la locuzione Open Data si identifica una nuova accezione piuttosto recente e maggiormente legata a Internet come canale principale di diffusione dei dati stessi accessibili a tutti, privi di brevetti o altre forme di controllo. L’European Interoperability Framework offre un modello di elaborazione degli Open Data alle organizzazioni e la possibilità di elaborare informazioni da fonti esterne o secondarie senza perdere il reale significato delle informazioni stesse nel processo di elaborazione.
Translate »