Gli analytics al cuore dell’ Industria 4.0

Cosa si intende per intelligenza artificiale?


Il tema dell’analisi di grandi quantità di dati ([1],[2],[3]) al fine di ricercare correlazioni è indubbiamente uno degli aspetti importanti della trasformazione digitale. È ormai assodato che l’analisi dei Big Data rappresenta una fonte di vantaggio competitivo e un fondamentale strumento di evoluzione dei modelli di business delle aziende. La capacità di sfruttare appieno i dati e le analisi richiede due capacità: le aziende devono essere in grado di identificare, unire e gestire più fonti di dati. In secondo luogo, devono saper costruire modelli avanzati di analisi per la previsione e l’ottimizzazione dei risultati.

Indubbiamente non è possibile pensare di effettuare le analisi utilizzando strumenti di tipo “manuale” e diventa sempre più necessario implementare algoritmi che siano in grado di automatizzare sia il processo di ricerca che quello di decisione. Questa distinzione è fondamentale anche per capire come operano e quali sono gli obiettivi di questi algoritmi.

Due filoni promettenti in questo contesto sono quello dell’Intelligenza Artificiale e quello del Machine Learning. I due concetti sono utilizzati in modo intercambiabile, ma non è così: rappresentano due modalità di lavoro, spesso interdipendenti, ma con obiettivi diversi.

L’impiego di due semplici definizioni può aiutare a comprenderne meglio gli scopi.

L’Intelligenza Artificiale si può definire come la capacità delle macchine di svolgere compiti e mansioni in modo autonomo e “intelligente”. Dove per macchine si intende in senso lato sia macchinari (robot, presse, assemblatrici, etc.), che computer o software. Il termine autonomo sottolinea la capacità di svolgere compiti in modo automatico, mentre l’attributo “intelligente” sottende anche la capacità di questi sistemi di prendere delle decisioni in funzione di strutture logiche particolari. Non si deve pensare all’intelligenza umana, che è complessa e articolata e fonda le sue basi sull’interazione di forme di intelligenza diverse (emotiva, logica, istintiva), ma ad una forma di intelligenza più parcellizzata, sempre più di tipo logico-matematica. Nel contesto dell’Industria 4.0, in questa definizione entrano anche quelli che si chiamano sistemi ciberfisici, e più in generale si fa riferimento alla capacità di prendere delle decisioni in funzione dell’analisi dei dati di alcune regole fissate dall’utente.

Il Machine Learning si può invece definire come la capacità dei sistemi di apprendere e creare modelli di comportamento e decisionali relativi ad un sistema fisico, a partire dai dati o da osservazioni.

Indubbiamente l’Intelligenza Artificiale trae notevole vantaggio dal Machine Learning per poter operare, cosi come succede nella nostra esperienza di essere umani, in cui la capacità di analisi e di decisione si affina in funzione delle esperienze e dei dati che abbiamo a disposizione.

Il termine Intelligenza Artificiale fu coniato da John McCarthy nel 1956 in occasione di un seminario di due mesi presso il Dartmouth College di Hanover (New Hampshire, USA) e ci si riferiva allora allo sviluppo di sistemi di ragionamento automatico o alla soluzione di giochi come la dama. Negli anni ’60 e ’70 gli studi sull’Intelligenza Artificiale erano di fatto solo accademici. Ed è proprio in quegli anni che sono state sviluppate anche le prime reti neurali e la logica Fuzzy, concetti su cui si fonda l’Intelligenza Artificiale.

Il primo, quello di rete neurale, è molto semplice da comprendere. Si tratta di un modello matematico il cui obiettivo è la simulazione delle reti di neuroni del nostro cervello, dove ogni elemento è collegato ad altri neuroni tramite delle sinapsi che permettono al cervello nel suo complesso il ragionamento e la gestione di ogni funzione e nervo del corpo.

Ma come si legano queste informazioni scambiate tra i neuroni con la capacità di ragionamento, che negli esseri viventi non è descrivibile con valori semplici, bianco o nero, ma è molto sfumata e dipende dai contesti e dalle circostanze?

Spesso alle reti neurali si combinano tecniche di logica, tra cui la logica Fuzzy, in italiano “logica sfumata”. E’ noto che i computer funzionano sfruttando la logica booleana basata su due valori lo zero e l’uno (logica binaria). Una decisione o risposta può solo essere vera o falsa senza vie di mezzo. La logica Fuzzy è invece utilizzata per introdurre valori intermedi. Un’evoluzione della logica booleana che consente a una determinata affermazione di essere pesata in base al contesto e risultare essere vera, falsa, oppure in parte vera o in parte falsa a seconda delle altre informazioni che sono a disposizione.

La combinazione di strumenti matematici insieme alle regole della logica, sfumata o meno che sia, costituiscono il cuore del sistema di analisi a cui si aggiunge il meccanismo del Learning, cioè dell’apprendimento. Il modello prevede che le relazioni fra i neuroni siano più o meno forti, attraverso la regolazione delegata a “pesi”, che possono essere calibrati per sintonizzare al meglio la relazione fra l’uscita del modello e gli ingressi. L’operazione di affinamento di questi pesi rappresenta l’obiettivo del Learning. Le reti vengono addestrate con tecniche di questo tipo e poi affinate in momenti successivi con la stessa tecnica, man mano che i dati a disposizione crescono. Quindi non è un processo fatto una volta per tutte, ma è un processo di miglioramento continuo del modello, che si può arricchire di nuovi input e nuovi layer. È quindi un modello in evoluzione. Quello delle reti neurali è uno dei possibili metodi per fare Machine Learning, forse il più esemplificativo.

Figura 1 – Reti neurali a livello singolo e reti neurali multilivello (Deep Learning) (fonte Autori vari)

In riferimento alla figura 1 si vede come il livello degli Input è messo in relazione con quello degli output attraverso un livello intermedio che è quello delle relazioni. Il peso di ogni input sulla relazione considerata è regolato attraverso la logica Fuzzy. Se il numero di livelli aumenta, così che le relazioni sono sempre più stratificate, si parla di Deep Learning.

In sintesi, il Machine Learning applica tecniche statistiche a grandi quantità di dati, cercando il modello migliore per risolvere il problema. Quindi implementa un algoritmo matematico che può ricostruire i parametri significativi del modello.

Figura 2 – Processo di Machine Learning (fonte Microsoft)

Il processo di Machine Learning (figura 2) parte dai dati grezzi (raw) e li processa al fine di pulirli e filtrarli per togliere elementi di rumore o di incongruenza. I dati così ottenuti vengono forniti al modello scelto per calibrare i suoi parametri. Quando questo processo è concluso, il modello può essere usato per le applicazioni per cui è stato pensato (manutenzione predittiva, efficienza energetica etc. ). L’arrivo di nuovi dati può essere usato per migliorare sempre di più la proprietà del modello di risolvere un certo problema, e quindi il processo può essere reiterato continuamente.

Oggi, quando si parla di Intelligenza Artificiale e Machine Learning nel mondo dei dati, si pensa alla categoria di tecnologie chiamate Big Data Analytics che hanno applicazioni che vanno dalla biologia all’industria, alla analisi dei comportamenti umani.

Ma quali sono le categorie principali di analytics che oggi trovano spazio nel mondo dell’Industria 4.0?

Innanzitutto abbiamo il livello della Analitica Descrittiva (Descriptive Analytics), cioè l’insieme dei tools rivolti a descrivere e rappresentare lo stato attuale e passato dei vari processi aziendali. Questo livello è molto simili ed ha punti in comune con la Data Visualization, cioè la rappresentazione sintetica e grafica dei dati.

Il livello successivo è quello della Analitica Predittiva (Predictive Analytics), cioè l’insieme degli strumenti rivolti a fare previsioni sul futuro comportamento di sistemi, prodotti o processi fisici. Tali strumenti sono basati su modelli matematici di regressione e previsione.

Salendo ancora di complessità si arriva alla Analitica Prescrittiva (Prescriptive Analytics) cioè l’unione dei modelli di tipo predittivo con la capacità di formulare soluzioni o suggerimenti per permettere al decisore di attuare delle scelte in modo più rapido e confidente.

L’ultimo livello, che è una vera e propria Intelligenza Artificiale, è quello della Analitica Automatica (Automated Analytics), cioè della capacità di prendere decisioni in modo autonomo. La combinazione di AI, Deep Learning e interfacce utente (ad esempio, riconoscimento vocale) sta rendendo sempre più vicina l’automatizzazione di una serie di task lavorativi che fino a qualche tempo fa si pensava fosse impossibile realizzare con una “macchina”. Gli effetti di tale trasformazione sono ormai sotto i nostri occhi: il nostro smartphone è già oggi in grado di suggerirci la strada da intraprendere per tornare a casa o in ufficio, senza che ci sia nessuna domanda formulata, semplicemente imparando dalla nostre abitudini storiche e dalle azioni che stiamo facendo in quel momento sul nostro smartphone.

Oggi quasi tutte le piattaforme di raccolta dati, offrono servizi di Machine Learning che possono essere utilizzati a vari livelli. Ma non basta alle imprese dotarsi dei tool software. E’ necessario avere una chiara strategia relativa alle analisi dei dati, che devono fornire informazioni utili al proprio modello, e nello stesso tempo avere un team di persone formato allo scopo.

Se si prende come esempio l’integrazione tra i sistemi ICT rivolti alle analisi economiche ed i sistemi informativi (figura 3) relativi al mondo dell’automazione e del processo, si può vedere come è necessario costituire delle figure intermedie in grado di dominare il mondo della statistica e della modellizzazione con conoscenze profonde di tool informatici e nello stesso tempo di modellizzazione del sistema fisico. Perché dietro ad un buon sistema di Intelligenza Artificiale c’è sempre un buon Data Scientist, ma soprattutto un buon Data Strategist.

Figura 3 – Integrazione tra Information Technology e Operation Techonology: nascita di nuove aree (fonte Autore)

 

Note e riferimenti

[1] Rezzani, Big Data Analytics. Il manuale del data scientist, Apogeo editore

[2] Understanding BigData, IBM

[3] How companies are using big data and analytics, McKinsey


L’Intelligenza Artificiale si può definire come la capacità delle macchine di svolgere compiti e mansioni in modo autonomo e “intelligente”. Dove per macchine si intende in senso lato sia macchinari (robot, presse, assemblatrici, etc.), che computer o software. Il termine autonomo sottolinea la capacità di svolgere compiti in modo automatico, mentre l’attributo “intelligente” sottende anche la capacità di questi sistemi di prendere delle decisioni in funzione di strutture logiche particolari. Non si deve pensare all’intelligenza umana, che è complessa e articolata e fonda le sue basi sull’interazione di forme di intelligenza diverse (emotiva, logica, istintiva), ma ad una forma di intelligenza più parcellizzata, sempre più di tipo logico-matematica. Nel contesto dell’Industria 4.0, in questa definizione entrano anche quelli che si chiamano sistemi ciberfisici, e più in generale si fa riferimento alla capacità di prendere delle decisioni in funzione dell’analisi dei dati di alcune regole fissate dall’utente.

Il Machine Learning si può invece definire come la capacità dei sistemi di apprendere e creare modelli di comportamento e decisionali relativi ad un sistema fisico, a partire dai dati o da osservazioni.

IoT, Cloud e Big Data Analytics, una visione della Digital Transformation per l’Industria 4.0
D: Quale è il rapporto tra iot e Bigdata?
R: C2S1ED07 Oggi l’Internet of Things, mediante l’uso di tecnologie RFID attive o passive combinate con sensori, sta rendendo possibile sviluppare nuovi servizi per la tracciabilità sia in ambito logistico ma soprattutto in ambito post vendita. La manutenzione dei prodotti acquista così un nuovo valore, offendo opportunità sempre maggiori. I progettisti imparano dai loro stessi prodotti e nuovi prodotti nascono studiando i modi di uso e le abitudini degli utilizzatori.
Ma tutto questo non potrebbe avere successo se non connesso con le tecnologie Cloud, Big Data e Analytics che permettono di raccogliere, organizzare ed analizzare i dati, con l’obiettivo ultimo di fornire indicazioni utili a prendere delle decisioni o addirittura a decidere autonomamente le azioni da intraprendere.

Comments are closed.