Como, 04 giugno 2018   |  

Le macchine sapranno mai pensare?

La scienza e la tecnologia stanno evolvendo ad un ritmo senza precedenti grazie all’esplosione dei dati disponibili e allo sviluppo di nuove tecniche di intelligenza artificiale per la loro analisi. Vi sono già ricadute socio-economiche evidenti ed è importante avere una comprensione realistica di ciò che ci aspetta nel prossimo futuro.

CP03062018 CP91818 1008

L’esplosione dei big data pone nuove sfide e ispira la scienza a porre domande inedite. E’ possibile però trarre da questa mole di dati estrarre informazioni significative, dalle quali estrapolare nessi causali? "La disponibilità della materia prima è a dir poco infinita: il problema è come utilizzarla in modo produttivo ed efficace, attraverso sistemi automatici di analisi - ha spiegato Riccardo Zecchina che ha insegnato anche Fisica statistica al Politecnico di Torino e all’Università Bocconi - Le applicazioni sono sterminate: dalle tlc alla medicina, dalla manifattura alla biologia”.

Ma la domanda cruciale rimane questa: le macchine, sanno o saranno mai in grado di pensare? Il “machine learning (ML)”, ovvero l’apprendimento automatico, è la capacità delle reti neurali artificiali di apprendere, sul modello delle loro controparti umane. Ed è motivo di studio per i ricercatori in tutto il mondo. Non da un punto di vista tradizionale, però, ne è convinto Zecchina: “Il deep learning” ha innescato la competizione tra i giganti tecnologici e il lancio di start up, ma non dev’essere fatto un lavoro di analisi teorica approfondita di un continuo progresso nella progettazione di algoritmi”. I computer infatti sono in grado di riconoscere oggetti all’interno di scene complesse, processare un discorso e rispondere a quesiti, estrarre caratteristiche rilevanti da una grande quantità di dati o partecipare a giochi che richiedono una qualche forma di strategia sofisticata. In molte applicazioni l’intelligenza artificiale sta raggiungendo capacità paragonabili se non superiori a quelle umane” .

La vera sfida e il vero progresso stanno nello sviluppo continuo di nuove tecnologie per la produzione e l’acquisizione dei dati, di potenti piattaforme informatiche e di algoritmi innovativi che automatizzano la costruzione di modelli analitici e offrono ai computer la capacità di apprendere senza essere stati esplicitamente programmati. Utilizzando algoritmi che apprendono in tal modo i dati, il machine learning consente di trovare informazioni nascoste, strategicamente importanti per guidare le strategie aziendali. Attualmente gli strumenti principali dell’intelligenza artificiale (AI) sono le reti neurali artificiali profonde (deep networks) ispirate ai sistemi neurali umani. “L’intelligenza artificiale è quindi il potenziamento delle nostre capacità cognitive e non la capacità di creare macchine che si comportano in modo umano” – ha concluso Zecchina. Il concetto di “algoritmo” quindi è il punto di arrivo dello schema di analisi che deve poter macinare gigabyte di misurazioni e variabili per risolvere problemi concreti, come ad esempio valutare una mammografia senza margini di errore, oppure fermare un robot della linea di assemblaggio prima che si guasti.

Un percorso, quello dell’analisi e dell’interpretazione dei dati, ovvero della convergenza tra big data e intelligenza artificiale, che risulta essere lo sviluppo più importante in assoluto che plasmerà il modo in cui le aziende creeranno valore partendo dal presupposto che non sono gli algoritmi a possedere valore, ma i dati. Tuttavia, perfino con il progredire della tecnologia, le aziende hanno ancora difficoltà a sfruttarne i benefici, soprattutto perché non è possibile comprendere chiaramente come implementare in modo strategico il machine learning al servizio degli obiettivi del business. (Pat)

Appuntamenti

Ritrovaci su Facebook

Caleidoscopio

21 Ottobre 1879 Thomas Edison testa la prima lampadina funzionante in modo efficace (resterà accesa per 13 ore e mezza prima di bruciarsi)

Social

newFB newTwitter