“una cosa buona non può essere crudele”
(Charles Dickens, 1812 – 1870)
(Charles Dickens, 1812 – 1870)
Lavoriamo costantemente nel miglioramento delle nostre attività, questo comporta una continua RICERCA, un continuo SVILUPPO degli strumenti che utilizziamo. La partnership più adatte, le capacità più coerenti, ma soprattutto una conoscenza capace di adattarsi al cambiamento, con la velocità che i nostri tempi oggi richiedono.
Non possiamo immaginare che questo accada senza l’utilizzo dell’intelligenza artificiale; lavoriamo utilizzando tecnologie di MACHINE LEARNING, a cui diamo in pasto i dati delle nostre rilevazioni ed analisi e che configuriamo per descrivere scenari probabilistici entro i quali muoversi. Siamo consapevoli che il risultato perfetto è difficilmente raggiungibile, ma diminuire la probabilità di allontanarci da esso è quello a cui puntiamo.
Cerchiamo di lasciare al “caso” minor terreno possibile.
Il progetto affrontato considera una città di 35.000 abitanti, sul territorio italiano, l’idea è quella di aprire una sede e disporre di informazioni relative al patrimonio immobiliare disponibile in quell’area. Inoltre è necessario prendere in esame come potrà variare il valore di tale patrimonio in base a parametri economici e sociali, non solo a breve termine ma anche a medio e lungo termine. E’ necessario disporre di un modello che consenta di analizzare le stesse variabili anche in altre aree variando la consistenza dei valori dei parametri economici e sociali di riferimento del modello.
Il progetto ha preso in esame l’analisi del mercato slow-food per un’impresa che lavora sulla produzione/commercializzazione di prodotti di alta gamma, baby-food inclusi; ogni prodotto è tracciato con tecnologie block-chain. Dal profilo dei dei potenziali clienti, al potenziale di acquisto, alla correlazione con classi di bisogni specifici dei profili individuati, la definizione di pattern specifici consente probabilisticamente di individuare le aree territoriali con il maggior potenziale di acquisto e contenimento dei costi della logistica. L’area di mercato interessata è quella del nord-est.
Forse il progetto più difficile, poiché connesso all’aleatorietà dei bisogni e degli orientamenti. Nessun dato sensibile, ma analisi storiche e rilevazioni di dati tecnici pubblici, incluse le fake news (secondo protocolli di screening e analisi del livello di credibilità della notizia). L’obiettivo: stabilire orientamenti elettorali nel breve, medio e lungo periodo, modificando determinati parametri (es. età, genere, livello di reddito, titolo di studio, lavoro) per la definizione di pattern inclusivi correlati a scenari di possibili risultati.
L’intelligenza artificiale deve confrontarsi con le risorse umane. Lavoriamo su due diversi domini: PMI e GI. I dati sono fondamentali. L’analisi dei risultati aziendali e delle perfomance rispetto ai profili personali e dei diversi reparti/aree/divisioni, alle assenze, alle malattie, ai richiami disciplinari, alle valutazioni dei singoli dipendenti, consente la definizione di scenari utili alla definizione di pattern orientati ai possibili miglioramenti individuali e collettivi. Non solo. Punti di forza e debolezza da valutare nell’ambito della definizione di strategie aziendali, inclusi i processi di ristrutturazione.
Ci sono diversi motivi per cui un’impresa decide di andare avanti anche se non esistono più le condizioni per farlo. Una tra queste, e non prendiamo in esame la pazzia, è l’assenza d’informazioni tempestive sullo stato di reale salute della propria azienda. Oggi abbiamo a disposizione un modello che consente di sapere se si è in grado di affrontare o meno una crisi, e se rispetto ad altre imprese si è competitivi o meno. Si deve tener conto che oggi, la sottovalutazione dei rischi non è più condonata.
BIG DATA questo il campo in cui sviluppiamo le nostre ricerche, per poi applicarne i risultati nella vita reale. Negli ultimi anni in particolare termini come intelligenza artificiale, data science, machine learning sono diventati di uso comune e molti ne immaginano l’impiego. Esempi pratici sono SIRI, ALEXA, lo stesso FACEBOOK o GOOGLE utilizzano tecnologie avanzate, ma nella vita quotidiana praticamente non se ne parla, il mondo del business li utilizza ma solo se il business è particolarmente complesso o evoluto.
Noi ci occupiamo di portare queste tecnologie nel mondo reale, affinché anche realtà produttive possano beneficiare del vantaggio dell’elaborazione di dati complessi.
Per realizzare le analisi dei dati che prendiamo in considerazione utilizziamo diverse metodologie di programmazione e calcolo che consentono di elaborare una consistente mole dei dati, costruiamo modelli predittivi e facciamo in modo che i modelli imparino dai dati e dai modelli che gli vengono sottoposti.
“Non il possesso della conoscenza, della verità irrefutabile, fa l’uomo di scienza, ma la ricerca critica, persistente e inquieta, della verità.”
In quest’immagine vengono comparate le popolarità di tre termini: BIG DATA (in blu), MACHINE LEARNING (in rosso) e ARTIFICIAL INTELLIGENCE (in giallo). L’analisi ha preso in esame il solo territorio italiano nell’arco di tempo degli ultimi cinque anni. Seppur complessivamente la popolarità del termine BIG DATA sia molto consistente, quella del MACHINE LEARNING ha avuto l’incremento maggiore.
Nel grafico successivo si può evidenziare invece quali sono le regioni italiane più interessate a tali termini, sulla base sempre delle ricerche affidate all’algoritmo di GOOGLE.
Le Regioni del Friuli Venezia Giulia, quella della Liguria ed il Trentino Alto Adige sono le regioni più interessate ai termini di machine learning, mentre quelle del vicino Veneto o della Lombardia sono maggiormente interessate ai BIG DATA.
Nella tabella successiva viene proposta una sintesi delle metodologie utilizzate in base al tipo di apprendimento e allo scenario di utilizzo:
Il senso di utilizzare tecnologie di machine learning, nell’ambito dello sviluppo delle BIG DATA Analysis, è quello di proporre percorsi di senso attraverso cui creare conoscenza e maggior valore per le aziende e per le persone. Oggi sempre più la vita quotidiana dipende dall’accesso a informazioni qualificate, non a semplici dati. Oggi sempre più si necessita di mettere in relazioni grosse moli di informazioni, e per fare questo è necessario tempo e tecnologie. Abbiamo messo a punto modelli applicabili anche in altri contesti, la sperimentazione ci porta a definire setting variabili entro cui far imparare i modelli, e più le “macchine” imparano, maggiore è la qualità delle informazioni che vengono rese.
Lavoriamo con metodo e generalmente il processo che affrontiamo ci vede coinvolti insieme al cliente sia per l’ovvio accesso alle informazioni di base sia per la configurazione della reportistica che è necessaria.
Siamo solo all’alba delle innovazioni possibili, e c’è ancora molto lavoro da fare ma siamo sulla buona strada.
Nel rispetto della Direttiva 2009/136/CE, ti informiamo che il nostro sito utilizza i cookies.
OKLearn more