una cosa buona non può essere crudele

(Charles Dickens, 1812 – 1870)

Lavoriamo costantemente nel miglioramento delle nostre attività, questo comporta una continua RICERCA, un continuo SVILUPPO degli strumenti che utilizziamo. La partnership più adatte, le capacità più coerenti, ma soprattutto una conoscenza capace di adattarsi al cambiamento, con la velocità che i nostri tempi oggi richiedono.

Non possiamo immaginare che questo accada senza l’utilizzo dell’intelligenza artificiale; lavoriamo utilizzando tecnologie di MACHINE LEARNING, a cui diamo in pasto i dati delle nostre rilevazioni ed analisi e che configuriamo per descrivere scenari probabilistici entro i quali muoversi. Siamo consapevoli che il risultato perfetto è difficilmente raggiungibile, ma diminuire la probabilità di allontanarci da esso è quello a cui puntiamo.

Cerchiamo di lasciare al “caso” minor terreno possibile.

BIG DATA questo il campo in cui sviluppiamo le nostre ricerche, per poi applicarne i risultati nella vita reale. Negli ultimi anni in particolare termini come intelligenza artificiale, data science, machine learning sono diventati di uso comune e molti ne immaginano l’impiego. Esempi pratici sono SIRI, ALEXA, lo stesso FACEBOOK o GOOGLE utilizzano tecnologie avanzate, ma nella vita quotidiana praticamente non se ne parla, il mondo del business li utilizza ma solo se il business è particolarmente complesso o evoluto.

Noi ci occupiamo di portare queste tecnologie nel mondo reale, affinché anche realtà produttive possano beneficiare del vantaggio dell’elaborazione di dati complessi.

Per realizzare le analisi dei dati che prendiamo in considerazione utilizziamo diverse metodologie di programmazione e calcolo che consentono di elaborare una consistente mole dei dati, costruiamo modelli predittivi e facciamo in modo che i modelli imparino dai dati e dai modelli che gli vengono sottoposti.

“Non il possesso della conoscenza, della verità irrefutabile, fa l’uomo di scienza, ma la ricerca critica, persistente e inquieta, della verità.”

Karl Popper

In quest’immagine vengono comparate le popolarità di tre termini: BIG DATA (in blu), MACHINE LEARNING (in rosso) e ARTIFICIAL INTELLIGENCE (in giallo). L’analisi ha preso in esame il solo territorio italiano nell’arco di tempo degli ultimi cinque anni. Seppur complessivamente la popolarità del termine BIG DATA sia molto consistente, quella del MACHINE LEARNING ha avuto l’incremento maggiore.

Nel grafico successivo si può evidenziare invece quali sono le regioni italiane più interessate a tali termini, sulla base sempre delle ricerche affidate all’algoritmo di GOOGLE.

Le Regioni del Friuli Venezia Giulia, quella della Liguria ed il Trentino Alto Adige sono le regioni più interessate ai termini di machine learning, mentre quelle del vicino Veneto o della Lombardia sono maggiormente interessate ai BIG DATA.

Il senso di utilizzare tecnologie di machine learning, nell’ambito dello sviluppo delle BIG DATA Analysis, è quello di proporre percorsi di senso attraverso cui creare conoscenza e maggior valore per le aziende e per le persone. Oggi sempre più la vita quotidiana dipende dall’accesso a informazioni qualificate, non a semplici dati. Oggi sempre più si necessita di mettere in relazioni grosse moli di informazioni, e per fare questo è necessario tempo e tecnologie. Abbiamo messo a punto modelli applicabili anche in altri contesti, la sperimentazione ci porta a definire setting variabili entro cui far imparare i modelli, e più le “macchine” imparano, maggiore è la qualità delle informazioni che vengono rese.

Lavoriamo con metodo e generalmente il processo che affrontiamo ci vede coinvolti insieme al cliente sia per l’ovvio accesso alle informazioni di base sia per la configurazione della reportistica che è necessaria.

Siamo solo all’alba delle innovazioni possibili, e c’è ancora molto lavoro da fare ma siamo sulla buona strada.