Con 124 microfoni e una potenza di elaborazione avanzata, la telecamera acustica FLIR Si124 offre
la migliore sensibilità di rilevazione del settore, un’eccellente risoluzione
dell’immagine acustica e un’eccellente portata di rilevazione
Perdite di aria compressa, perdite del sistema per
la produzione di vuoto, parziali scariche elettriche: sono
tutti problemi costosi nei sistemi che causano sprechi di energia e costringono
le aziende ad affrontare costi imprevisti e potenziali problemi di produzione e
continuità operativa.
L’imaging a ultrasuoni con una telecamera acustica è un metodo
efficace per rilevare questi problemi nelle apparecchiature a completamento
delle procedure di gestione delle risorse. Questa tecnologia facile da usare in genere
permette agli addetti di completare le ispezioni
10 volte più rapidamente rispetto ai metodi tradizionali.
A fronte di queste considerazioni, quali sono le
caratteristiche da ricercare in una telecamera acustica?
Ecco, secondo FLIR Systems, le sei
caratteristiche da valutare per orientarvi verso una scelta accorta:
GAMMA DI FREQUENZE EFFICACE
Una delle prime caratteristiche da considerare è la
gamma di frequenze della telecamera. Si potrebbe supporre che per captare la
più ampia gamma di suoni sia necessaria una gamma di frequenze più ampia
possibile.
Tuttavia, in realtà, la gamma di frequenze più
efficace per rilevare una perdita di aria compressa è compresa tra 20 e 30 kHz.
Infatti, limitando la gamma tra 20 e 30 kHz, è più
facile distinguere le perdite di aria compressa dal rumore di fondo in una
fabbrica.
L’ampiezza del rumore dei macchinari solitamente
presenta il suo picco massimo sotto i 10 kHz e tende a zero a 60 kHz, mentre le
perdite d’aria raggiungono il picco tra 20 e 30 kHz. Data la maggiore
differenza tra il rumore della perdita d’aria e il rumore di fondo tra 20 e 30
khz, rispetto a frequenze più alte, è più facile rilevare la perdita d’aria in
questa gamma di frequenza.
Sia il rumore dell’aria compressa che quello dei
macchinari seguono la stessa tendenza di ampiezza decrescente nella gamma di
frequenze da 30 a 60 kHz, rendendo più difficile discriminare i rispettivi
suoni.
Pertanto, una telecamera acustica che opera nella
gamma tra 20 e 30 kHz è più efficace.
Nella ricerca di scariche parziali a distanza di
sicurezza, la gamma da 10 a 30 kHz è ottimale, in quanto le frequenze più alte
percorrono distanze più brevi. Per rilevare le scariche parziali di apparecchiature
ad alta tensione in esterni, la telecamera deve essere regolata su suoni a
frequenza più bassa e che percorrono distanze maggiori.
NUMERO OTTIMALE DI MICROFONI
Per catturare i suoni più lievi, è vantaggioso
averne un numero maggiore. Tipicamente, le
telecamere acustiche impiegano decine di microfoni MEMS (sistemi
microelettromeccanici) per acquisire e caratterizzare i suoni. Sebbene di
piccole dimensioni, i microfoni MEMS hanno un basso consumo energetico e sono
molto stabili.
Ma essi stessi generano rumore che interferisce con
la capacità di un singolo microfono di captare suoni molto tenui.
Per ovviare a questo inconveniente, la soluzione è
aumentare il numero di microfoni in uso; il miglioramento dovuto semplicemente
al raddoppio del numero di microfoni elimina tre decibel di suoni indesiderati.
In alcuni casi, il rumore interno di un solo microfono, o self-noise, potrebbe
impedire al sistema di captare una perdita di aria compressa caratterizzata da
un segnale di 16,5 kHz.
Una telecamera acustica con 32 microfoni sarebbe in
grado di rilevare la perdita, ma il rapporto segnale-rumore non sarebbe ancora
sufficiente per rilevare suoni più lievi. Al contrario, una telecamera acustica con 124 microfoni può captare una perdita sia a
16,5 kHz, sia a 18,5 kHz, per rilevare, individuare e quantificare
facilmente anche le piccole perdite.
PORTATA DI RILEVAZIONE SONORA
Integrare il giusto numero di microfoni in una
telecamera acustica può anche migliorare le possibilità di captare rumori molto
silenziosi a grande distanza. Questa capacità è particolarmente importante
nelle ispezioni di sistemi ad alta tensione, che impongono di operare a
distanza di sicurezza dai componenti sotto tensione. La forza di un segnale
sonoro diminuisce significativamente all’aumentare della distanza dalla sua
fonte. Per contrastare questo fenomeno, la soluzione è aumentare il numero di
microfoni: quadruplicando il numero di microfoni si raddoppia la portata di
rilevazione sonora.
POSIZIONAMENTO DEI MICROFONI
Il posizionamento dei microfoni su una telecamera
acustica è un fattore determinante nella rilevazione della direzione e
l’origine del suono. La telecamera acquisisce i dati da ogni microfono, misura
le differenze di temporizzazione e di fase dei segnali e infine calcola la posizione
della fonte. Questi microfoni devono essere raggruppati a stretto contatto per
garantire l’acquisizione di dati sulle onde sonore sufficienti a stabilirne
correttamente l’origine.
PRESTAZIONI DEI MICROFONI
Proprio come avviene per la frequenza, anche il
numero di microfoni in una telecamera acustica è un fattore di delicato
equilibrio. L’uso di un numero eccessivo di microfoni può risultare
svantaggioso perché ogni microfono richiede una potenza di elaborazione per
convertire i segnali di dati audio in immagini, quindi aggiungerne troppi
degrada le prestazioni.
Alcuni produttori bilanciano la maggiore richiesta
di potenza di elaborazione riducendo la risoluzione dei pixel dell’immagine
acustica, ossia i pixel “sonori”, ma questa soluzione impatta le
prestazioni generali della telecamera.
È importante disporre di un numero sufficiente di
pixel sonori per rilevare in modo affidabile le scariche parziali e gli effetti
corona a distanza e localizzarne l’esatta origine.
Con 124 microfoni e una potenza di elaborazione avanzata, la telecamera acustica FLIR Si124 offre
la migliore sensibilità di rilevazione del settore, un’eccellente risoluzione
dell’immagine acustica e un’eccellente portata di rilevazione.
ANALISI INTELLIGENTE
Le caratteristiche finali da considerare sono la
potenza di calcolo e l’analisi fornita dalla telecamera acustica, oltre
all’eventuale software a corredo.
Ad esempio, la
telecamera FLIR Si124 è dotata di analisi a bordo, report di facile
comprensione e analisi predittiva tramite uno strumento web di intelligenza
artificiale che consente di classificare la gravità della perdita, eseguire
l’analisi dei costi e l’analisi del modello di scarica parziale in tempo reale
durante l’ispezione. Attivando il collegamento alla rete Wi-Fi a fine ispezione,
le immagini vengono automaticamente caricate su FLIR Acoustic Camera Viewer,
per eseguire ulteriori analisi in cloud, compreso il calcolo della spesa
energetica annuale stimata dovuta a perdite dell’impianto di aria compressa o
del vuoto, e oltre alla possibilità di stabilire se una scarica parziale
richieda un intervento di manutenzione o una sostituzione.
Il Viewer può anche essere usato per creare report
da condividere con la squadra di manutentori o il cliente.
La business intelligence (BI) combina business analytics, data mining,
visualizzazione dei dati, strumenti e infrastrutture per i dati, nonché le best
practice per permettere alle organizzazioni di prendere più decisioni basate
sui dati
In buona sostanza, sai
di aver acquisito la business intelligence moderna quando hai una vista
completa dei dati della tua organizzazione e li usi per stimolare il
cambiamento, eliminare le inefficienze e attuare un rapido adattamento ai
cambiamenti di mercato e forniture.
Più che indicare una “cosa” specifica, business intelligence è un
termine onnicomprensivo che riguarda i processi e i metodi per raccogliere,
memorizzare e analizzare i dati tratti dalle operazioni o attività aziendali
con l’obiettivo di migliorare le prestazioni. Tutti questi elementi vanno a
creare una vista completa dell’azienda, aiutando le persone a prendere
decisioni migliori e concretizzabili.
Negli ultimi anni, la business intelligence si è sviluppata includendo più
processi e attività per consentire il miglioramento delle prestazioni. Tali
processi includono:
Data mining: uso di database, statistiche e
apprendimento automatico per svelare i trend in ampi set di dati.
Elaborazione di report: condivisione
delle analisi dei dati con i soggetti interessati, affinché possano trarre
conclusioni e prendere decisioni.
Metriche e benchmarking delle prestazioni: confronto dei dati sulle prestazioni attuali con i dati storici,
per monitorare le prestazioni rispetto agli obiettivi. Di solito, si
esegue usando dashboard personalizzate.
Analisi descrittiva: utilizzo di
analisi dei dati preliminari per comprendere cosa è accaduto.
Esecuzione delle query: interrogazione
dei dati con specifiche domande, per cui la BI estrae le risposte dai set
di dati.
Analisi statistica: partendo
dai risultati dell’analisi descrittiva, ulteriore esplorazione dei dati
usando le statistiche, per esempio in relazione a come e perché si sia
verificato un determinato trend.
Visualizzazione dei dati: trasformazione
dell’analisi dei dati in rappresentazioni visive, come grafici, diagrammi
e istogrammi, per una fruizione dei dati più facile.
Analisi visiva: esplorazione dei dati attraverso le
rappresentazioni visive, per comunicare informazioni al volo e seguire il
flusso dell’analisi.
Preparazione dei dati: compilazione
di diverse origini dati, identificandone dimensioni e misurazioni e
preparandole per l’analisi dei dati.
Perché la business intelligence è importante?
La business
intelligence consente alle aziende di prendere decisioni migliori, mostrando
dati attuali e storici all’interno del contesto aziendale.
Gli analisti possono sfruttare la BI per fornire benchmark su prestazioni e concorrenti, per consentire
all’organizzazione di funzionare in modo più fluido e più efficiente.
Inoltre, gli analisti possono
individuare facilmente i trend di mercato, per aumentare le vendite o gli
introiti.
Se usati in modo efficace, i dati giusti possono essere utili per qualsiasi
attività, dalla conformità alle assunzioni.
Ecco alcuni modi in cui la business intelligence può
consentire alle aziende di prendere decisioni più intelligenti basate sui dati:
Identificare i
modi per aumentare i profitti
Analizzare il
comportamento dei clienti
Confrontare i
dati con i concorrenti
Monitorare le
prestazioni
Migliorare le
operazioni
Prevedere il
successo
Individuare i
trend di mercato
Scoprire
complicazioni o problemi
Come funziona la business intelligence
Le aziende e le organizzazioni hanno tante domande e tanti obiettivi.
Per rispondere alle domande e monitorare le prestazioni rispetto agli
obiettivi, raccolgono i dati necessari, li analizzano e determinano le azioni
da intraprendere per raggiungere i propri obiettivi.
Dal punto di vista tecnico, i dati non elaborati vengono raccolti
dall’attività aziendale, per poi essere elaborati e archiviati nei data warehouse.
Dopodiché, gli utenti possono accedere ai dati e passare all’analisi per
rispondere alle domande che riguardano l’azienda.
Come funzionano insieme BI, analisi dei dati e
business analytics
La business intelligence include analisi dei dati e business analytics.
Tuttavia, li usa solo come parte dell’intero processo. La BI consente agli
utenti di trarre conclusioni dalle analisi dei dati.
I data
scientist approfondiscono le specifiche dei dati, usando statistiche avanzate e
analisi predittive per svelare modelli e prevedere modelli futuri.
La domanda
dell’analisi dei dati è: “Perché è successo e cosa potrà succedere?”
La business intelligence ricorre a quei modelli e algoritmi e scompone i
risultati in un linguaggio fruibile.
Secondo il glossario dei termini IT di Gartner, la “business analytics include il data mining, l’analisi predittiva, l’analisi applicata e la statistica“.
In breve, le organizzazioni conducono la business analytics quale parte
della più ampia strategia di business intelligence.
La BI è
progettata per rispondere a query specifiche e fornire un’analisi
immediata, utile per decisioni e pianificazione.
Le aziende, però, possono usare i processi di analisi per migliorare
continuamente l’iterazione e le domande di follow-up.
L’analisi aziendale non deve essere un processo lineare, perché la risposta
a una domanda porterà con ogni probabilità a sviluppare nuove domande e così
via. Al contrario, va considerata come un processo ciclico, che comprende le
fasi di accesso ai dati, identificazione, esplorazione e condivisione delle
informazioni. Si parla, appunto, di ciclo di analisi per descrivere come le
aziende usano l’analisi per rispondere alle domande e alle aspettative in
continuo cambiamento.
La differenza tra BI tradizionale e BI moderna
In passato, gli strumenti di business intelligence si basavano su un
modello tradizionale.
Si trattava di un approccio top-down in cui la business intelligence era
gestita dall’organizzazione IT e si usavano report statici per rispondere alla
maggior parte delle domande di analisi, se non a tutte.
Perciò, se qualcuno aveva un’ulteriore domanda sul report ricevuto, la sua
richiesta veniva messa in fondo alla coda di reporting e il processo doveva
ripartire daccapo.
Di conseguenza, i cicli dell’attività di report erano lenti e frustranti e
le persone non riuscivano a sfruttare i dati attuali per prendere decisioni.
La business intelligence tradizionale rappresenta ancora un approccio
comune per le ordinarie elaborazioni di report e per rispondere a query
statiche.
Invece, la business intelligence moderna è interattiva e
accessibile. Sebbene i reparti IT siano ancora fondamentali per la gestione
dell’accesso ai dati, molteplici livelli di utenti possono personalizzare le
dashboard e creare report anche con poco preavviso. Con il software appropriato,
gli utenti sono in grado di visualizzare i dati e rispondere alle proprie
domande.
Strumenti e piattaforme di business intelligence
Molti strumenti e piattaforme self-service di business intelligence
semplificano il processo di analisi. In questo modo per le persone è più facile
osservare e comprendere i dati, pur non avendo le competenze tecniche per
approfondirli autonomamente. Sono disponibili molte piattaforme di BI per
l’attività di report ad hoc, la visualizzazione dei dati e la creazione di
dashboard personalizzate per molteplici livelli di utenti.
Il ruolo futuro della business intelligence
La business intelligence si sviluppa continuamente di pari
passo con le esigenze aziendali e la tecnologia. Pertanto, ogni anno,
individuiamo i trend attuali per tenere gli utenti al passo con le innovazioni.
Visto
l’obiettivo delle aziende di essere sempre più basate sui dati, l’impegno per
la condivisione dei dati e la collaborazione aumenterà. La visualizzazione dei
dati sarà ancor più fondamentale per il lavoro congiunto tra team e reparti.
La BI offre funzionalità per il monitoraggio delle vendite quasi in tempo
reale, consente agli utenti di scoprire le informazioni nel comportamento dei
clienti, di prevedere i profitti e molto altro. Svariati settori, come quello
della vendita al dettaglio, assicurativo e petrolifero, hanno adottato la BI, e
ogni anno se ne aggiungono altri. Le piattaforme di BI si adattano
all’innovazione e alle nuove tecnologie degli utenti.
I più recenti traguardi della ricerca scientifica e le tecnologie emergenti, tra cui intelligenza artificiale, robotica, nanotecnologie e biotecnologie, pongono alcuni interrogativi sull’uso che ne fa l’uomo e sugli scopi di tale utilizzo
Robot umanoidi, nanotecnologie e computazione stanno segnando in modo importante la metodologia della ricerca scientifica, fungendo da strumenti capaci di guidarla e di potenziarla.
Strumenti in cui ingegneria, neuroscienze, genomica, chimica, fisica, matematica e informatica diventano discipline trasversali, applicate ad ambiti diversi, dalla medicina alla sostenibilità ambientale, dalla farmaceutica alla produzione di energia, come spiega Giorgio Metta, scienziato, direttore scientifico dell’Istituto Italiano di Tecnologia di Genova, nonché “papà” del robot umanoide iCub e professore di robotica cognitiva presso l’Università di Playmouth, nel Regno Unito.
Gli algoritmi e i sistemi di intelligenza artificiale oggi hanno il potere di diffondere e rafforzare stereotipi e pregiudizi di genere, che rischiano di emarginare le donne su scala globale.
Considerando la crescente presenza dell’AI nelle nostre società, questo potrebbe mettere le donne nella condizione di rimanere indietro nella sfera lavorativa, economica, politica e sociale, come sottolinea spesso Darya Majidi, esperta di informatica, AI e trasformazione digitale, imprenditrice con, all’attivo, alcune aziende High Tech in Italia e all’estero, fondatrice della comunità Donne 4.0 e autrice dei libri “Donne 4.0” e “Sorellanza Digitale”.
Vittima e, insieme, carnefice di sè stesso, impaurito dai cambiamenti profondi e rapidi del digitale e, allo stesso tempo, avido nel farne un uso e consumo per fini propri, l’uomo (inteso come essere umano, non come identità d genere), all’interno di tale rapporto, fa mostra di comportamenti, di modi e di scopi, divenuti, in questi ultimi anni, oggetto di una riflessione dal respiro ampio, il cui nocciolo è “che cosa” vogliamo farne di quello che abbiamo creato e come s’intenda farlo.
In questa fase – osserva Luciano Floridi, filosofo, professore di filosofia ed etica dell’informazione all’Università di Oxford, nonché direttore del Digital Ethics Lab presso l’Oxford Internet Institute dello stesso Ateneo – non è più l’innovazione tecnologica in sé ciò che fa la differenza, ma è che cosa ne facciamo di questa innovazione.
Non è alla digital innovation, ma è alla governance, alla “gestione” del digital, che ora dobbiamo guardare. Il focus, oggi, si incentra dall’innovazione alla sua governance, ovvero alla sua gestione, con tutta una serie di questioni aperte da affrontare, che riguardano gli impatti sulla società, la parità di genere, l’educazione, il mondo del lavoro, solo per citarne alcuni. Sono questi i temi di cui si parlerà il prossimo 18 gennaio, alle 17.00, insieme a: Darya Majidi, Luciano Floridi, Giorgio Metta. LIVE DAL NUOVISSIMO CANALE YOUTUBE DI TECH4FUTURE
L’evento organizzato da Tech4Future ha come obiettivo offrire spunti di riflessione su temi di grandissima attualità relativi a problemi complessi e di non facile ed immediata risoluzione, ma che possono trovare spunti ed idee dalla condivisione e dalla divulgazione, come nello spirito che anima la missione di Tech4Future. L’evento è pubblico, aperto a tutti e senza bisogno di registrarsi e lasciare i propri dati. https://www.linkedin.com/events/6751903725079560192/
ABOUT TECH4FUTUREAd inizio 2020 ho fondato Tech4Future, un progetto editoriale con una vocazione molto chiara: divulgare e promuovere la conoscenza delle tecnologie emergenti analizzandone i possibili impatti (rischi e vantaggi) su persone, aziende, società economico-politiche, ambiente… per incentivare, attraverso sano spirito critico, un utilizzo etico, consapevole e responsabile delle tecnologie del futuro.
Cloud, Intelligenza Artificiale, piattaforme Low-Code e nuove forme di comunicazione e customer care: la filiera del settore farmaceutico ricorre a tutte le tecnologie abilitanti per supportare un cambiamento irreversibile, che la pandemia ha solo accelerato
Se è vero che il settore farmaceutico in un periodo di crisi sanitaria non può temere arresti, è anche vero che proprio la crisi sanitaria sta trasformando le abitudini di milioni di persone, incidendo anche sulla salute generale e modificando le esigenze e i trend in ambito healthcare. Inseguire questi mutamenti richiede alle aziende del settore flessibilità, ma anche creatività. La dote forse più necessaria, però, è il coraggio, perché per stare al passo, bisogna adottare nuovi modelli di business, basati su tecnologie digitali altamente pervasive.
Una prima, composita, panoramica ci viene da Teresa Minero, Founder & Ceo di LifeBee-Digitalizing Life Science- e International Board of Directors, European Leadership Team, Steering Committee Pharma 4.0 di Ispe, associazione globale no-profit che riunisce i professionisti del Life Science.
Nel corso di un suo recente intervento mirato a individuare la rilevanza di tutto ciò che è Industria 4.0 nella crescita delle aziende di ogni settore e in particolare di quello farmaceutico, la Minero faceva riferimento a un’inchiesta del Politecnico di Milano, che ha messo a confronto imprese attive in ambito Industria 4.0 e imprese meno attente ai processi di trasformazione digitale. Le imprese attive per Industria 4.0 mostrano parametri di crescita, redditività e produttività del lavoro decisamente superiori, a testimonianza del fatto che l’adozione del pensiero e delle sfide Industria 4.0 costituisce un oggettivo vantaggio competitivo.
«Non che non ci siano
difficoltà nel seguire questo processo di trasformazione, come emerge da una
ricerca di Couchbase, pubblicata negli Stati Uniti a settembre 2019 che prende
in esame 450 responsabili di Trasformazione Digitale tra Stati Uniti, Regno
Unito, Francia e Germania», ha detto Teresa Minero.
«Secondo questo
studio, gli interventi non risultano sempre di successo. Le imprese riscontrano
soprattutto la complessità di implementazione delle nuove tecnologie,
la mancanza di risorse e competenze per portare a termine gli
aggiornamenti, i ritardi e a volte il fallimento degli obiettivi perché non
sempre i progetti riescono a essere veramente trasformativi o rivoluzionari.
Segnali da non sottovalutare e di cui far tesoro nella definizione del giusto
approccio da tenere rispetto al cambiamento, anche a fronte della contestuale
grande maggioranza di testimonianze di conseguimento di risultati di
miglioramenti “almeno” significativi per gli utenti finali, che comprendono un
gran numero di trasformazioni effettive o addirittura rivoluzionarie».
Venendo più specificamente al Pharma, anche l’ultima survey di Ispe sul tema 4.0 nel settore, condotta con la collaborazione della Liuc Business School, conferma che gli imprenditori del settore farmaceutico sono ormai pienamente consapevoli del fatto che le nuove tecnologie, quali ad esempio Cloud, Analytics, robotica avanzata, siano dei volani per lo sviluppo delle loro aziende.
Il punto debole, ciò
su cui bisogna ancora lavorare, è la percezione ancora solo parziale di
cosa significhi trasformazione digitale radicale e di come si possano
realmente assimilare i nuovi modelli di business.
Quale può dunque essere la strategia più appropriata per affrontare questi ostacoli? Teresa Minero non ha dubbi: è necessaria una roadmap. «LifeBee propone ai suoi clienti un percorso condiviso per lo sviluppo di una roadmap che tiene conto di tutti i fattori in gioco, un percorso che parte dall’individuazione di un obiettivo 4.0 reale, il più adatto all’impresa stessa, e passa per l’individuazione di uno scenario 4.0, basato sulla situazione, i tempi, le risorse e gli obiettivi intermedi. I punti guida sono la sostenibilità in termini di investimenti e risorse, la strategia a lungo termine, l’esecuzione per passi con quick-win, il miglioramento dei processi e, soprattutto, una compliance proattiva e non “reattiva”, ovvero non mero adempimento di norme, ma compliance by design su processi e soluzioni».
Secondo Teresa Minero, uno dei temi centrali di questa evoluzione del comparto farmaceutico, perché già a vario titolo sperimentato da molte aziende, è la serializzazione, che proprio nelle prossime settimane sarà oggetto di approfondimento all’interno di una serie di incontri promossi sempre da LifeBee.
Data Integrity, una
priorità per il farmaceutico
Un altro tema centrale
in ambito farmaceutico è quello dell’Integrità dei Dati, sia per una questione
normativa, sia perché in un clima di emergenza sanitaria aumenta nel cliente
finale il bisogno di rassicurazioni sulla sicurezza del prodotto e sulla
reputazione del marchio.
Ne abbiamo parlato
con Sébastien Girard, Global Business Development Manager Consumer
Packaged Goods di Eurotherm, parte del gruppo
Schneider Electric, che fornisce soluzioni per mantenere
l’integrità dei dati durante il loro intero ciclo di vita.
«In questo difficile
periodo per le aziende farmaceutiche è fondamentale rimanere agili e ridefinire
il flusso di convalida e controllo della qualità dei dati. Per le aziende
farmaceutiche l’aspetto più importante rimane, anche in questa nuova normalità,
mantenere la fiducia del paziente e riaffermare il concetto che “La sicurezza
del paziente viene prima di tutto».
È quindi il momento
giusto per ripensare alla governance dell’Integrità dei Dati, per reimpostare i
processi standard e il sistema di gestione della qualità, vivendo questo
passaggio come un’opportunità di mettere nero su bianco i dettagli del ciclo di
vita dei dati, evidenziando i rischi potenziali e le necessarie azioni
migliorative per risparmiare tempo e ridurre i costi legati al rilascio di
batch e per proteggere i dati da errori legati a guasti, falsificazioni e
attacchi informatici.
L’emergenza sanitaria
ha inoltre reso urgente l’abbandono di registratori a carta e di record
cartacei in generale: è semplicemente impensabile, in periodo di
Lockdown, immaginare un tecnico costretto a recarsi in un impianto per apporre
la propria firma in fondo a un foglio in modo da poter rilasciare sul mercato
un prodotto.
Da molti anni in
Europa la registrazione digitale è fortemente consigliata e
tutto induce a pensare che diventerà obbligatoria: da questo punto di vista la
crisi attuale sta accelerando i tempi. Per evitare rischi nell’implementazione
della registrazione digitale è necessario considerare l’integrità dei dati così
come affrontata dai principi Alcoa (+). Scegliere un fornitore che applica
concretamente questi concetti facilita il raggiungimento della conformità e
riduce i rischi legati ai processi di qualifica e convalida del percorso di
digitalizzazione verso lo Smart Manufacturing».
Per queste ragioni le
soluzioni Eurotherm sono in linea con le più recenti best practice a livello
globale come cGMP, Fda 21 CFR Parte 11, Ema Annex 11 e Data Integrity Alcoa
(+). Eurotherm ha recentemente presentato anche il software Data Reviewer che
ora include anche un’opzione Auditor progettata per contribuire all’Integrità
dei Dati e aiutare a semplificare il rispetto delle norme. I registratori
Eurotherm della Serie 6000, il registratore/regolatore nanodac, il Pac T2750 e
i registratori modulari Versadac insieme a Data Reviewer prevedono l’accesso
utente con password e firme elettroniche. Ciò fornisce la tracciabilità degli
eventi all’interno di audit-trail digitali a prova di manomissione,
semplificando la conformità regolatoria.
Packaging nel
farmaceutico, sempre sotto i riflettori
Il packaging
all’interno della filiera del farmaceutico occupa un ruolo fondamentale: la
confezione di un farmaco non solo deve rispettare precise norme igienico-sanitarie,
ma il suo design finisce per costituire un fattore integrante del prodotto. Ci
siamo confrontati con Valentina Marchesini di Marchesini Group, una delle aziende
italiane più note nel settore del packaging per il farmaceutico. Marchesini ha
lanciato un programma di comunicazione del tutto innovativo per il 2020, dando
prova del fatto che anche quando tutto cambia c’è sempre una strada per
costruire qualcosa di nuovo e per crescere.
«Quello farmaceutico
è un mercato anticiclico», ci ha spiegato Valentina Marchesini,
«che paradossalmente nei momenti difficili va meglio. Il Lockdown di primavera
non lo ha fermato, ma la crisi sanitaria lo sta modificando molto, e molto
velocemente. Da un lato tutta l’attenzione è stata focalizzata sulla ricerca
del vaccino, dall’altro c’è stato, ad esempio, un calo delle vendite dei
farmaci da banco, perché l’uso massiccio delle mascherine ha ridotto
drasticamente la diffusione dei malanni di stagione».
Per un’azienda che
sviluppa e fornisce tecnologia il problema principale è mantenere viva e
funzionale la relazione con il cliente sia per la parte di promozione, sia poi
per l’installazione, la formazione e gli interventi di manutenzione.
«Si è parlato tanto
di resilienza. Marchesini ha sfruttato questi mesi per crescere
in chiave di connessione con il cliente. Di solito la linea viene
consegnata a domicilio da un team specializzato che si occupa
dell’installazione, del collaudo e della formazione del personale», ha aggiunto
la manager.
«Nel momento in cui
mettere in atto questo tipo di procedure non è stato più possibile, abbiamo
riorganizzato il nostro lavoro. Siamo ricorsi a occhiali 3D, virtual room e
applicazioni per garantire al cliente assistenza da remoto, fino all’extrema
ratio dell’installazione pilotata. Dallo scorso marzo abbiamo realizzato 70
collaudi in streaming e ne prevediamo altri 40 entro la fine dell’anno».
Altra grande novità
per Marchesini sono gli XDays, ovvero “Extraordinary times need extraordinary
events”. «Per colmare il vuoto creato dalle limitazioni alla mobilità e quindi
la cancellazione di fiere, openday, workshop che erano uno dei nostri punti di
forza, perché l’accoglienza è un plus dell’imprenditoria italiana, ci siamo inventati
questi show digitali, in cui le nostre macchine sono protagoniste. Il tentativo
è quello di soddisfare il bisogno del cliente di fare un’esperienza ravvicinata
del prodotto. Per ottenere i migliori risultati possibili ci siamo avvalsi di
professionisti dell’intrattenimento per quanto riguarda le riprese, la
strumentazione e gli effetti speciali, mentre regia e scrittura sono stati
curati da risorse interne. Davanti alle telecamere ci sono i nostri tecnici che
oltre alla loro competenza portano sul palco la passione per i prodotti che
hanno visto nascere. I risultati raggiunti finora sono davvero incoraggianti».
I servizi di
assistenza in remoto X-Care di Marchesini saranno protagonisti di uno
degli XDays del prossimo anno. La seconda stagione di XDays di Marchesini è
infatti iniziata a ottobre con un focus sulla tecnologia Valida (in foto
sotto), che è una contatrice elettronica dotata di un doppio sistema di
conteggio e visione in grado di verificare forma, colore, altezza e principio
attivo della compressa, per un controllo totale del processo di counting.
Il sistema è composto
da quattro telecamere che controllano dall’alto le compresse che scorrono sui
canali, verificandone la corretta forma e colore; una telecamera che controlla
l’altezza delle compresse mediante triangolazione laser permettendo lo scarto
degli eventuali prodotti non conformi; fotocellule per il controllo
dell’avvenuto scarto della singola compressa e non del flacone.
La tecnologia Valida
può essere usata non solo come counter ma anche come pre-caricatore montato
sulla linea blister Integra 320. Prossimamente, uno degli XDays sarà dedicato
alla nuova soluzione per il riempimento e la chiusura di stickpack, nata dal
connubio tra la tecnologia Schmucker e il know-how hardware e software di
Marchesini Group. «Mentre l’acquisizione di Schmucker risale a tre anni fa e
rientra nel programma di ampliamento delle nostre competenze in un ambito come
quello degli stickpack che è sempre più di moda perché risponde alle esigenze
di vita dei nostri giorni, il sodalizio con Neri è di lunga data. Dopo anni di
proficua collaborazione Neri è stata acquisita da Marchesini come Divisione
Specializzata in soluzioni per l’etichettatura ed è pronta a
lanciare sul mercato il modello RE 402 per il labeling di prodotti in vetro,
plastica o metalli di qualunque forma e dimensione».
Infine, un altro XDays,
un’altra partnership e un’altra soluzione all’avanguardia. «Il 18 febbraio
presenteremo la linea blister integrata robotizzata, Integra 320, che è una
linea già collaudata, ma che è stata aggiornata con un sistema per il controllo
del principio attivo del prodotto sviluppato in collaborazione con Sea Vision.
Grazie alla tecnologia laser, le compresse che vengono movimentate
sulla linea a velocità considerevoli, un attimo prima di scivolare nel blister,
subiscono una scansione che permette di rilevare non solo la presenza, la
forma, la dimensione e l’integrità dell’unità, ma anche il colore e il
principio attivo». Un metodo di controllo non invasivo e affidabile che
consente di raccogliere dati fondamentali anche per la serializzazione.
Cloud computing e AI
per la supply chain del comparto farmaceutico
Nell’intraprendere un
percorso di digitalizzazione, le aziende del settore farmaceutico
puntano tra l’altro sulla supply chain. Per la previsione della
domanda, sono numerose le realtà che si affidano a ComplEtE, una soluzione
end-to-end di nuova generazione nata dall’esperienza congiunta di Porini-DGS,
un’azienda specializzata nella fornitura di servizi e soluzioni di valore
nell’ambito delle Cybersecurity Solutions, delle Digital Solutions e del
Management Consulting.
ComplEtE è un’unica
piattaforma che può gestire l’intero flusso della supply chain, dal demand
management alla pianificazione fino alla gestione del magazzino. In
particolare, la soluzione di Supply Chain Management permette di gestire gli
aspetti strategici (con i moduli Strategic Network Simulator e Demand
Management), tattici (con DRP Solution ed Enterprise Planning) e operativi,
anche grazie al supporto di algoritmi di intelligenza artificiale.
Trattandosi di una
soluzione SaaS (Software-as-a-Service) e realizzata in ambiente Cloud
Microsoft, ComplEtE non richiede un’installazione ed è immediatamente fruibile
tramite web browser. Inoltre, il fatto che ComplEtE sia integrata con tutti i
servizi offerti dalla piattaforma Microsoft Azure permette alle imprese di
utilizzare i tool per la gestione degli eventi (Power Automate), per la
condivisione delle informazioni (Teams) e per il lavoro quotidiano (Office
365).
Per quanto riguarda
l’implementazione, i progetti di norma partono da una sessione di analisi dei
processi aziendali di forecast della domanda, seguiti da una fase di
integrazione della piattaforma ComplEtE con l’Erp e con tutte le sorgenti dati
interessate ai processi in scope (Plm, Wms, Crm…). Seguono le fasi di
configurazione del prodotto e di UAT.
La soluzione però è
costruita per essere un insieme di mattoncini (brick) di soluzioni integrati e
integrabili tra di loro, permettendo quindi di sfruttare le componenti
necessarie e migliori all’ottenimento del risultato di una visione e gestione
completa del flusso informativo chiave della supply chain.
La soluzione ComplEtE
mette le aziende del comparto farmaceutico, e non solo, nella condizione
di costruire precise previsioni di vendita attraverso i più avanzati
algoritmi di intelligenza artificiale e con il contributo attivo e
collaborativo di tutta la forza commerciale coinvolta nel processo
previsionale, calcolando, ad esempio, i livelli di scorta, su ogni nodo della
rete, necessari a garantire il desiderato livello di servizio.
Ha scelto la strada
del Cloud anche una realtà come InSilicoTrials, startup
italiana che ha messo a punto una piattaforma innovativa che consente di ridurre
notevolmente, del 40-60%, i costi e i tempi di sviluppo di nuovi farmaci.
Obiettivo di
InSilicoTrials è facilitare l’accesso alle tecnologie di simulazione
già diffuse in ambito aerospaziale e automotive anche alle piccole e medie case
farmaceutiche, cosicché possano utilizzare la simulazione per
sperimentare, registrare e produrre nuovi farmaci in modo più efficiente,
sicuro e veloce.
Attraverso la
piattaforma proprietaria Cloud-based, InSilicoTrials fornisce alle aziende del
comparto farmaceutico i migliori modelli computazionali disponibili a livello
mondiale, che il suo team seleziona continuamente nelle università di tutto il
mondo e che sono già in grado di supportare la certificazione da parte degli
enti regolatori. Successivamente, un gruppo di ingegneri e sviluppatori lavora
su questi modelli per semplificarne l’interfaccia e l’utilizzo, di modo che,
una volta caricati sulla piattaforma, possano essere usati anche da ricercatori
che non hanno conoscenze in materia di simulazione digitale.
L’azienda
farmaceutica in un’ottica pay-per-use paga solo nel momento in
cui utilizza il modello, tagliando così considerevolmente i costi e consentendo
ai propri collaboratori di accedere alla tecnologia anche a distanza e ovunque
si trovino, dal momento che tutti i modelli sono utilizzabili in-Cloud nella
massima sicurezza.
Ai prodotti e alle
soluzioni pensati da InSilicoTrials per il mondo farmaceutico si aggiunge oggi
sulla piattaforma anche la Drug Safety Suite, una nuova serie di modelli che
aiutano a ridurre il rischio di cardiotossicità dei farmaci.
Ogni nuova molecola
può rivelarsi pericolosa per il cuore, provocando aritmie anche irreversibili:
affiancando ai testi in vitro i test di simulazione è possibile individuare la
pericolosità per il cuore di una molecola già nelle primissime fasi di studio
in laboratorio e, quindi, si può procedere a eliminarla subito, riducendo i
tempi e i costi della sperimentazione, e allo stesso tempo anche i test sugli
animali.
L’automazione Low-Code
per il pharma
Le criticità del
processo di trasformazione digitale sono probabilmente tra le ragioni per
cui l’automazione è attualmente utilizzata solo dal 40% delle
organizzazioni che hanno preso parte a un’altra interessante ricerca,
quella, promossa da Appian e condotta da Pharma
Intelligence.
In base a questa
ricerca, i due maggiori ostacoli alla trasformazione digitale sono la
complessità del sistema (47% degli intervistati) e la mancanza di comprensione
con il business o nei reparti IT (38%). Alla domanda sulle soluzioni
specifiche, la maggioranza (82%) di coloro che conoscono il Low-Code vedono i
vantaggi del suo utilizzo per semplificare il DevOps per la loro
organizzazione, mostrando quindi una certa consapevolezza della potenza che
l’automazione Low-Code può avere nello snellire i processi e nel rispondere
rapidamente ai cambiamenti normativi.
Appian, l’azienda
promotrice dell’indagine, fornisce una piattaforma di sviluppo Low-Code che
unisce in modo nativo tutte le funzionalità necessarie per fornire processi
end-to-end di grande impatto all’interno dell’organizzazione. L’obiettivo è
consentire alle piccole e medie aziende farmaceutiche di: automatizzare le
attività di routine in un flusso di lavoro e integrare i sistemi senza Api;
progettare e gestire i processi complessi con iBPM leader di settore;
automatizzare le attività collaborative e la gestione delle eccezioni con le
migliori funzionalità sul mercato e rendere le App più efficaci e intelligenti
con l’AI integrata di Google, AWS e Azure.
Un caso di successo:
Bormioli Pharma investe nel 4.0
In questo frangente di
crisi sanitaria globale, Bormioli Pharma, attiva nel mercato
farmaceutico e biofarmaceutico con soluzioni complete, che includono flaconi in
vetro e plastica, chiusure in plastica e alluminio e accessori, ha scelto la
via dell’innovazione e ha avviato un progetto di revamping dello
storico stabilimento di Rivanazzano (Pavia), con un
investimento complessivo di 6,5 milioni di euro.
Il progetto prevede
tra l’altro la costruzione di una nuova Clean Room (camera sterile) di livello
ISO7, l’installazione di nuove macchine per stampaggio a iniezione ad alto
tonnellaggio, l’introduzione di una nuova tecnologia produttiva e un forte
incremento del livello di automazione dei processi di movimentazione prodotti
che garantirà standard di sicurezza sempre più elevati.
Grazie a questo
progetto, avviato a poche settimane dal completamento degli interventi di
manutenzione straordinaria e potenziamento dei forni degli stabilimenti di
Bergantino (Rovigo) e San Vito al Tagliamento (Pordenone), e dall’acquisizione
di GCL Pharma, Bormioli prevede di incrementare la capacità produttiva del 35%
e di affermarsi come polo di eccellenza delle tecnologie di stampaggio
plastica per iniezione e compressione a livello internazionale.
“L’intelligenza artificiale non è solo una
tecnologia, ma fa sempre più parte della nostra vita quotidiana. La manifattura
è un motore positivo per il benessere della società, perciò nell’edizione 2020
del WM Report ci siamo chiesti come l’intelligenza artificiale possa migliorare
quel ruolo”, commenta Marco Taisch
Il
rapporto ha evidenziato l‘impatto dell’Intelligenza Artificiale
sul settore manifatturiero: il settore, si stima, investirà in questa
tecnologia 9,5 miliardi di dollari nel 2021 (sarà quindi il settore che investirà di più in IA,
secondo solo al settore bancario e dei servizi finanziari ed assicurativi) e
13,2 miliardi di dollari entro il 2025.
Le compagnie del settore, sottolinea il
rapporto, investono nell’Intelligenza
Artificiale sia perchè ne comprendono il potenziale, sia perchè vedono i
propri concorrenti investire e vogliono assicurarsi, quindi, di ritenere la
loro competitività nel mercato.
Le
tecnologie dell’Intelligenza Artificiale verranno
maggiormente adottate in un primo momento nell’automazione dei processi
produttivi, per poi venire applicate ai prodotti e ai servizi
offerti dalle imprese (ad esempio per velocizzare la fase di
design e produzione e per migliorare il marketing e la customer experience) e
nella gestione del business e delle operazioni.
Le maggiori difficoltà con cui le imprese si
scontrano nell’utilizzo di queste tecnologie riguardano la disponibilità dei dati (dati non affidabili o
difficoltà di adeguardi alle normative sui dati e sulla privacy), la mancanza delle giuste competenze nella forza
lavoro (mancanza di competenze digitali per sviluppare e/o implementare
soluzioni di IA) o l’incapacità delle aziende stesse di individuare le skill necessarie per adottare
queste nuove tecnologie.
Le raccomandazioni per adottare l’Intelligenza Artificiale in modo etico ed
affidabile
Come per le precedenti edizioni, il
report ha individuato 10 raccomandazioni relative al focus dello studio, che
hanno come obiettivo un’adozione di successo, etica e affidabile dell’IA nella
produzione industriale e sono:
Alimentare dibattito pubblico per
aumentare la comprensione e costruire la fiducia nei sistemi di IA, con azioni mirate a promuovere la conoscenza dell’Intelligenza
Artificiale e delle sue potenzialità, correggere le visioni erronee su di essa
e avviare una discussione degli impatti socio-economici dell’Intelligenza
Artificiale;
Gestire le aspettative dei produttori
sulla capacità dell’IA, attraverso la comprensione delle
potenzialità e dei limiti dell’Intelligenza Artificiale, la condivisione delle
pratiche migliori sull’utilizzo e la scelta delle soluzioni di IA adeguate alle
risorse, alle capacità e alle necessità di ciascuna azienda;
Implementare riflessioni etiche
nell’intero ciclo di vita dell’IA, con
azioni volte ad assicurare che i dati su cui si basano gli algoritmi siano
veramente rappresentativi della società e non basati su bias, ad esempio
attraverso la crazione di team interdisciplinari che lavorino a progetti di IA;
Garantire la qualità (accuratezza e
completezza), privacy e disponibilità dei dati, promuovendo metodi più responsabili per la raccolta, l’utilizzo e la
condivisione degli stessi;
Mettere gli esseri umani al centro degli
ambienti di lavoro IA, formando
i lavoratori per migliorare la loro comprensione dell’Intelligenza Artificiale,
di come questa tecnologia può esaltare le capacità dell’uomo e viceversa e
preparli all’impatto psicologico che l’utilizzo sempre maggiore
dell’Intelligenza Artificiale nella manifattura avrà sulla forza lavoro nei
prossimi anni;
Assicurare l’allineamento strategico
dell’IA in tutta l’organizzazione, per
evitare che ci sia una rottura tra il management dell’azienda e il resto
dell’organizzazione. Per fare questo, dopo che sono stati individuati dal team
manageriale gli investimenti e la strategia necessari per l’azienda, si
consiglia la discussione con il resto degli operatori dell’organizzazione;
Sostenere le PMI manifatturiere nel loro
percorso verso l’IA, aiutandole nella comprensione
dell’Intelligenza Artificiale e di come può essere applicata al loro business,
nella riconversione delle competenze necessarie per potere usufruire di questa
tecnologia e con incentivi agli investimenti;
Promuovere l’IA per supportare reti di
fornitura resilienti, sfruttando la capacità dell’Intelligenza
Artificiale di individuare e risolvere i problemi della catena di distribuzione
e di facilitare le operazioni quotidiane;
Educare e formare la forza lavoro attuale
e futura per lavorare con l’IA, focalizzandosi
sull’insegnamento (già ai primi livelli di istruzione) delle skill necessarie
per lavorare con l’Intelligenza Artificiale e sfruttando la tecnologia per
rendere l’apprendimento più efficace ed inclusivo;
Implementare standard, politiche e
regolamenti per guidare un’adozione sostenibile dell’IA, creando standard e linee guida che possano guidare una giusta
applicazione dell’Intelligenza Artificiale e promuovendo l’adozione di linee
guida e policy comuni a livello globale, anche per evitare pratiche di
concorrenza sleale.
Benanti: “C’è bisogno di un’algoretica”
Il
rapporto pone una grande attenzione alle implicazioni etiche del
coinvolgimento sempre maggiore dell’Intelligenza Artificiale nella vita
dell’uomo e della sua applicazione alla manifattura. La discussione etica (ma
non solo) che il rapporto invita tutti i skateholder coinvolti ad aprire è
necessatia soprattutto in vista delle possibili ripercussioni che
l’applicazione dell’Intelligenza Artificiale avrà nel breve periodo su alcune
occupazioni.
A questo
proposito Paolo Benanti, Francescano del
Terzo Ordine Regolare (ed esperto di etica, bioetica ed etica delle
tecnologie), ha sottolineato la necessità di scongiurare una “guerra
evolutiva” tra uomini e queste tecnologie, attraverso
l’utilizzo di regolamentazioni adeguate, che impediscano all’Intelligenza
Artificiale di andare oltre agli scopi progettati dall’uomo.
“Dobbiamo mantenere le persone al centro
di questo processo evolutivo. Dobbiamo dare risposte alla società che riducano
i rischi socio-economici che possono derivare dall’applicazione di queste
tecnologie. Possiamo farlo anche creando un’etica che sia comprensibile a
queste macchine, un’algoretica”, commenta.
Il rapporto realizzato da Eit health e Mckinsey & Company, dal titolo “Transforming Healthcare with Ai: the impact on the workface and organizations”conferma la necessità delle competenze dell’intelligenza artificiale nel settore Healthcare
Lo studio ha evidenziato la necessità di attrarre, educare e formare una generazione di professionisti della sanità con una approfondita conoscenza dei dati, migliorando al contempo le competenze della forza lavoro attuale, per poter sfruttare appieno il potenziale di trasformazione dell’intelligenza artificiale.
Cosa dice l’Europa
D’altra parte secondo la European
skills agenda(il documento presentato lo scorso 1 luglio dalla Commissione Europea, per migliorare la competitività sostenibile e garantire l’equità sociale), a oggi almeno l’85%
dei posti di lavoro richiede un livello minimo di competenze digitali.
Nel 2019 solo il 56% degli adulti possedeva le competenze digitali
di base.
Mentre tra il 2005 e il 2006, il 40% dei nuovi posti di lavoro
erano in settori di alta intensità digitale.
Secondo lo studio di Eit & Mckinsey, le competenze digitali di
base, la scienza biomedica e dei
dati, l’analisi dei dati e i fondamenti della genomica saranno fondamentali, in
vista dell’ingresso dell’intelligenza
artificiale e del machine
learning nel settore dei servizi
sanitari.
“Queste
materie sono raramente insegnate in modo sistematico insieme alle scienze
cliniche tradizionali. E così, incolpevolmente, il personale sanitario di oggi
non è ancora pronto per l’adozione dell’Ai.
L’Europa è all’avanguardia nell’innovazione
sanitaria e stiamo assistendo alla creazione di un numero crescente di
soluzioni di Ai tangibili, di impatto e promettenti. Tuttavia dobbiamo coniugare
lo sviluppo di nuove tecnologie, in
grado di alleviare parte della pressione sui servizi sanitari, con la capacità
di integrarle nell’erogazione delle cure. Ora è il momento di colmare queste
lacune, in modo che l’Europa non rimanga indietro nell’applicazione dell’Ai” –
ha dichiarato Jorge Fernández García, Direttore Innovazione di Eit Health e
co-autore del rapporto.
Le professioni sanitarie che hanno più bisogno di
competenze Ai
Attualmente la diagnostica è
l’applicazione principale dell’Ai nell’ambito del settore sanitario.
Tuttavia, nei prossimi 5/10 anni, gli operatori sanitari si
aspettano che il processo decisionale clinico sia al primo posto nella lista
delle applicazioni secondo il sondaggio dell’EIT
Health e McKinsey & Company, che ha coinvolto 175 persone in prima
linea nella fornitura di assistenza sanitaria, inclusi 62 decisori
intervistati.
Gli autori del rapporto sottolineano che non solo è necessario
attrarre, formare e trattenere un numero crescente di professionisti sanitari,
ma si deve anche garantire che il loro tempo sia impiegato dove ha maggior
valore aggiunto, ovvero nella cura dei pazienti.
Il
ruolo dell’Artificial Intelligence
Basandosi sull’automazione, riporta una nota delle due società,
l’intelligenza artificiale può rivoluzionare l’assistenza sanitaria. In che
modo?
Contribuendo a migliorare la vita quotidiana degli operatori
sanitari, permettendo loro di concentrarsi maggiormente sull’interpretazione
delle immagini e quindi su come lavorare con i pazienti e i team clinici per
personalizzare e migliorare ulteriormente l’assistenza.
L’intelligenza artificiale, inoltre, può migliorare la velocità
della diagnostica e, in molti casi, anche la loro accuratezza.
Oltre all’aggiornamento delle competenze, un’altra esigenza
identificata come fondamentale dai partecipanti allo studio è la maggiore
partecipazione degli operatori sanitari nelle prime fasi dello sviluppo
dell’IA.
Attualmente il 44% degli intervistati, selezionato per l’interesse
negli ambiti dell’innovazione sanitaria e dell’IA, non è mai stato coinvolto
nello sviluppo o nella diffusione di una soluzione di IA.
“L’Ai ha un enorme potenziale per migliorare la produttività e
l’efficienza dei sistemi sanitari e renderli più sostenibili ma, cosa ancora
più importante, ha il potenziale per fornire migliori risultati sanitari ai
pazienti.
Può farlo in molti modi, dallo sviluppo di un maggior numero di
cure preventive, alla possibilità per gli operatori sanitari di dedicare più
tempo alla cura diretta dei pazienti.
Questo rapporto congiunto vuole essere una guida per i responsabili
dei processi decisionali, in modo che possano definire le loro aspirazioni
rispetto all’IA e sviluppare e implementare il giusto approccio per la loro
organizzazione o il loro sistema sanitario” – ha commentato Angela Spatharou, Partner di McKinsey &
Company, e co-autore del rapporto.
Con l’anno accademico 2021-2022 partirà in Italia il primo
dottorato in intelligenza artificiale.
Firmata la convenzione tra il Consiglio Nazionale delle
Ricerche (Cnr), l’Università Sapienza di Roma, il Politecnico di Torino,
l’Università Campus Bio-Medico di Roma, l’Università Federico II di Napoli e
l’Università di Pisa.
Lo rendono noto il Ministero dell’Università e della Ricerca
(Mur) e il Cnr, presso il quale il Mur ha costituito un comitato per elaborare
una strategia unitaria e realizzare un coordinamento nazionale, finanziando con
4 milioni di euro il Cnr e con 3,85 milioni di euro l’Università di Pisa.
Sono già disponibili 194 borse di studio, 97 cofinanziate dal
Cnr e 97 cofinanziate dal Mur attraverso l’Università di Pisa.
L’investimento complessivo, con il
co-finanziamento degli atenei, supererà i 15 milioni di euro.
“Si tratta di una grande opportunità per il
nostro Paese. Con il dottorato in intelligenza artificiale l’Italia sarà più
competitiva sulle tecnologie avanzate”, ha affermato il titolare del
Mur, Gaetano Manfredi.
Complessivamente, il mercato dell’Intelligenza
artificiale in Italia è agli albori, con una spesa in tecnologie nel
settore di poche centinaia di milioni di euro l’anno. Lo studio McKinsey
individua le possibilità di maggior sviluppo, e ritorno economico, in settori
industriali strategici per il Paese come il manifatturiero, la robotica
industriale e di servizio, l’agroalimentare.
“Si gioca qui una delle grandi sfide del
nostro futuro”, ha detto il rettore della Sapienza, Eugenio Gaudio, “e per questo dobbiamo investire
nella formazione e nella specializzazione dei giovani a partire da quei
settori, come la robotica e l’Intelligenza artificiale, che
costituiscono un’eccellenza
del nostro Paese.
L’avvio di un dottorato nazionale
potrà rappresentare il trampolino di lancio per progetti di grande impatto
scientifico”. L’Università La Sapienza, sul tema, dal 2009 offre un corso
in lingua inglese.
Uno studio sui lavori scientifici nel settore dell’Ai, basato su
dati Scopus di Elsevier, posiziona l’Italia al decimo posto a livello mondiale
come numero di pubblicazioni. Il loro impatto scientifico, però, ci colloca al
quinto posto. “Il nostro Paese può sicuramente contare su un grande punto di
forza: la qualità della sua ricerca scientifica”, ha detto il
presidente del Cnr, Massimo Inguscio. “Dobbiamo
ripartire dalla ricerca, digitale e intelligenza artificiale sono settori
cruciali”.
HORIZON 2020 è stato lo strumento che ha permesso un adeguato livello di
sviluppo delle Tecnologie
abilitanti (KET) nei Paesi Europei, soprattutto in Italia
In riferimento al settore delle KET tecnologie abilitanti
emergenti, la spinta di HORIZON 2020
ha aiutato a superare parzialmente questa criticità, generando collaborazioni
pubblico-privato di particolare rilevanza.
Ciò grazie anche ad alcune iniziative nazionali che hanno appunto accolto
le KET nella programmazione e allineato gli obiettivi strategici a quelli di HORIZON 2020.
Sotto la spinta complessiva di queste azioni, il Sistema italiano della
Ricerca e Innovazione si è sviluppato sostanzialmente lungo tre direzioni:
1. Adeguamento del percorso educativo dei laureati e formazione permanente dei lavoratori;
2. Sviluppo della competitività del Sistema
industriale. Se consideriamo ad es. l’Area dei Trasporti, gli obiettivi
fondamentali possono essere raggiunti solo attraverso un’appropriata
combinazione delle tecnologie abilitanti.
3. Assicurare l’impatto sociale dei risultati della R&I. Secondo
l’ISTAT, su un campione di 400.000 aziende, il 52.3% può essere definito non
sostenibile, il 15% leggermente sostenibile, il 15.1% mediamente sostenibile e
il 17.6% altamente sostenibile
Questo risultato è dovuto anche alla significativa partecipazione delle
organizzazioni italiane, sia pubbliche che private, ai temi di HORIZON 2020,
tra i quali NMBP e Science with and for Society.
Il programma di finanziamento NMBP ha generato un cambiamento nella cultura
degli attori italiani nella Ricerca e Innovazione,
promuovendo sia una crescita di competenze specifiche, che una soddisfacente
consapevolezza della necessità di indirizzare e integrare gli aspetti economici, ambientali e sociali dell’Innovazione.
Tale patrimonio di competenze e approcci potrà essere valorizzato e
capitalizzato nell’ambito del prossimo Programma
Horizon Europe e nello specifico nell’area del Pillar 2: Digital, Industry and Space.
Considerando gli orientamenti prioritari della R&I nel nuovo programma,
la risposta può solo essere affermativa.
Nello specifico, due sono i temi di particolare rilevanza per l’Italia:
a) Il primo riguarda le tecnologie
digitali e in particolare lo sviluppo dell’Intelligenza Artificiale, che nella visione italiana è comunque sempre
approcciata con una visione antropocentrica. I principali interessi industriali
riguardano i seguenti settori:
– Industria Farmaceutica (Drug
Discovery, Drug Delivery and Clinical Applications);
– Industria Automotive (Autonomus
Driving, Predective Maintanance, Cyber Car, Connected Supply Chain);
– Microelettronica (Smart Driving,
Smart Industry, Smart Home and Smart Things);
b) Il secondo è relativo alla buona posizione Italiana nel campo dei
Materiali Avanzati. Partendo dalla considerazione che lo sviluppo di tecnologie abilitanti per le energie rinnovabili e sostenibili
dipende in maniera critica dall’abilità di disegnare e realizzare materiali con
proprietà ottimali, la realizzazione di materiali adatti allo scopo non può
prescindere dalla connessione tra predizione, sintesi e caratterizzazione dei
materiali stessi.
L’emergente transizione economica e sociale rende consapevole il sistema
italiano della R&I dei vantaggi che possono derivare dal valore della
sostenibilità. Per le aziende gli impegni verso questa direzione sostenibile si
muovono lungo due traiettorie principali:
a) Essere consapevoli dell’impatto delle attività;
b) Fare un uso responsabile delle seguenti sei forme di Capitale:
– Il capitale NATURALE fornisce
risorse alle attività produttive industriali e alimenta la disponibilità di
scarti generati;
– Il capitale UMANO, con la
conoscenza e le competenze degli addetti per portare a compimento le attività
di business in modo efficiente e concreto;
– Il capitale INTELLETTUALE, ovvero
brevetti, tecnologie, know-how, informazioni sui client, che contribuiscono alla
creazione di valore per l’azienda;
– Il capitale MANIFATTURIERO,
composto da asset tangibili che, assieme a quelli intangibili, contribuiscono
alla creazione di valore per l’azienda;
– Il capitale SOCIALE, cioè il
sistema di relazioni dell’azienda con gli stakeholders inclusi i propri
dipendenti;
– Il capitale FINANZIARIO che
fornisce all’azienda le risorse necessarie per i bisogni del business.
Il sistema italiano della R&I è pronto quindi a inserirsi nella
prossima programmazione europea,
consapevole che una partecipazione adeguata non potrà che tradursi in molte
opportunità:
• Un Sistema di eco-innovazione
più flessibile e dinamico
• Una migliore cooperazione pubblico-privato (ridotta frammentazione)
• Trasferimento tecnologico
(migliorare il trasferimento dei risultati della ricerca)
• Partecipazione di PMI e Grandi Imprese
e Programmi nazionali
• Migliore accesso alla finanza per la R&I
• Disponibilità di venture capital
• Infrastrutture di Ricerca e, quindi, miglior accesso a competenze e
strumentazioni
Blockchain, Rfid e
Prescriptive Analytics, applicate nella
supply chain del comparto alimentare possono aiutare a ridurre gli sprechi alimentari
Gli sprechi alimentari rappresentano un problema particolarmente sentito a livello
globale e colpisce duramente anche l’Italia. Si calcola infatti che nel nostro
Paese vengano gettate ogni anno 220mila tonnellate di cibo per un valore di circa
12 miliardi, a cui vanno aggiunti gli sprechi alimentari di
filiera (produzione – distribuzione), stimato in oltre 3 miliardi, (ben il
21,1% del totale) per arrivare a un infelice valore di oltre 15 miliardi.
Negli ultimi anni, gli operatori della supply chain
del comparto alimentare hanno adottato misure imponenti
per ridurre degli sprechi
alimentari, ma c’è ancora molto da fare. La produzione continua di rifiuti porta perdite di profitto per
la supply chain alimentare a causa della scarsa considerazione da parte dei
consumatori più attenti alla sostenibilità e delle complessità operative nel trasporto, che ostacolano l’efficienza.
Dall’aumento dei costi, alle crescenti aspettative dovute a una
sempre più elevata domanda, dal monitoraggio al controllo delle scorte, le aziende della catena di
approvvigionamento alimentare affrontano molte sfide nei loro sforzi per
prevenire gli sprechi
alimentari.
Per avere successo possono però avvalersi delle tecnologie più
avanzate che, combinando l’uso di blockchain, robotica, intelligenza artificiale su dispositivi
mobile,visibilità delle risorse e prescriptive analytics aiutano a ottimizzare – ad ogni livello – la supply chain così da combattere le
cause degli sprechi
alimentari e aumentare al
contempo la profittabilità.
Blockchain
La blockchain è uno strumento indispensabile nella lotta contro
gli sprechi alimentari,
per quanti operano nella supply chain. Pensato originariamente come uno
strumento per la gestione delle criptovalute, la blockchain
può fungere da libro mastro digitale accessibile a tutti (come
ad esempio un foglio di calcolo) che permette di monitorare, registrare e segnalare il movimento
delle merci lungo tutta la catena del valore. Il codice a barre del prodotto viene
scansionato ad ogni “checkpoint”
lungo tutto il suo viaggio, dal sito
di produzione al negozio, segnando così una traccia indelebile del percorso
seguito e delle diverse tappe.
Grazie al costante
monitoraggio, risulta più semplice identificare
le aree critiche lungo la supply chain. Si consideri ad esempio un’azienda
di trasporto di prodotti lattiero-caseari: nel caso ci fossero continue
spedizioni compromesse e l’azienda non disponesse della tecnologia blockchain, per identificare il problema sarebbe
costretta a ricostruire minuziosamente tutti gli spostamenti dei prodotti lungo
la filiera, facendo tesoro diogni tipo di documentazione disponibile. Questa
operazione potrebbe richiedere settimane – e per tutto il tempo i prodotti
continuerebbero a deteriorarsi per cause non prontamente individuate.
Con la blockchain
invece, l’ispettore incaricato, può fare un controllo immediato per registrare
automaticamente il punto esatto in cui il prodotto potrebbe aver subito un
trattamento non idoneo. Può accorgersi subito, per esempio, che i colli sono
stati lasciati durante la notte in una struttura di cross-docking non attrezzata per lo stoccaggio refrigerato. Visitando la struttura può poi venire a
scoprire che a causa di una lacuna nella formazione del personale, numerosi
prodotti deperibili vengono collocati sul pavimento invece di essere messi
immediatamente su un camion refrigerato. Gli sarà sufficiente organizzare
nuovamente un momento di formazione degli operatori, per fare in modo che gli
sprechi alimentari vengano così eliminati alla fonte.
Rfid
I tag Rfid sono
essenzialmente dei codici a barre
che evidenziano le informazioni dei prodotti sulle confezioni (non sarebbe
infatti né economico né pratico apporre tag Rfid su ogni singolo articolo). Il
loro grande vantaggio rispetto alla blockchain risiede nella quantità e immediatezza delle informazioni
che sono in grado di offrire. Utilizzando i lettori Rfid si ha una visibilità istantanea dei
movimenti di ogni confezione etichettata e dei livelli di scorte.
In particolare, molte aziende della catena del valore sfruttano
la tecnologia Rfid per tenere
traccia della qualità e della freschezza dei prodotti alimentari durante tutto
il processo di distribuzione. Grazie ai tag Rfid è possibile avere
aggiornamenti in tempo reale rispetto al cibo scaduto o prossimo alla scadenza
per poterlo quindi stornare tempestivamente.
A titolo di esempio, citiamo l’esperienza di un distributore che
– già abituato a utilizzare la tecnologia
Rfid che gli segnalava i prodotti in scadenza durante il trasporto – ha
deciso di cambiare metodo riconfigurando la soluzione per ricevere segnalazioni
puntuali sui prodotti in transito in scadenza entro le successive 48 ore.
Questo tipo di alert permette al personale addetto alla distribuzione di rimuovere qualsiasi merce prossima alla scadenza
ed evitarne così la consegna al cliente.
Lo stesso prodotto può così essere donato a banchi alimentari
locali, giardini zoologici, rifugi per animali o altri enti di beneficenza
prima che diventi inutilizzabile. Un semplice cambiamento di processo che ha
permesso però con una azione caritatevole di ridurre in modo significativo gli
sprechi alimentari.
Prescriptive
Analytics
Le soluzioni Blockchain e Rfid sono ancora più efficaci se
utilizzate con la prescriptive analytics, una metodologia di
analisi avanzata che sfrutta i dati per determinare:
Cosa sta succedendo
Perchè è successo
Quanto costa non agire
Cosa fare per ottimizzare il risultato
Chi deve risolvere il problema
La prescriptive analytics semplifica ulteriormente la
sostenibilità potenziando la blockchain e le soluzioni Rfid grazie ad una
maggiore tempestività e praticità.
Si consideri come esempio lo scenario riferito alla vendita di
prodotti caseari, gestita col solo supporto di soluzioni blockchain: queste non
segnalando necessariamente l’attività in modo tempestivo, portano alla
necessità di intervenire manualmente per controllare il libro mastro al fine di
identificare eventuali anomalie. Questo flusso di lavoro reattivo aumenta il
rischio che i clienti ricevano prodotti scaduti prima che qualcuno si accorga
che c’è un problema e lo corregga.
Se il distributore coinvolto avesse utilizzato la prescriptive
analytics e la blockchain in modo combinato, il gestore del cross docking
avrebbe ricevuto un avviso in tempo reale del tipo: “Pallet # 3309 a rischio
deterioramento; caricare immediatamente sul carrello all’alloggiamento n. 3”.
Questa semplice indicazione prescrittiva, facilmente comprensibile da chiunque,
avrebbe indirizzato adeguatamente il manager consentendogli di intervenire per
evitare lo spreco alimentare.
Una buona soluzione
di presciptive analytics può essere configurata per focalizzarsi
concretamentesull’eliminazione di problemi di sprechi alimentari, come ad esempio:
Eccessiva produzione di rifiuti (indica le cause che determinano
un aumento di rifiuti)
Prodotti prossimi allascadenza
Malfunzionamento di celle frigorifere (compresi i casi di
prodotti lattiero-caseari e camion per le consegne)
Prodotti deperibili che sono rimasti troppo a lungo
senzaadeguata refrigerazione
Un minimo di sprechi
alimentari è purtroppo inevitabile, ma questo non significa che le aziende della catena di
approvvigionamento alimentare non possano prevenire casi di spreco derivanti
invece da errori umani, dimenticanze o inaccortezze. L’implementazione di
tecnologie avanzate come blockchain,
Rfid e/o prescriptive analytics è una risposta altamente innovativa per colmare
queste lacune lungo tutta la supply chain. Col tempo, ciò contribuirà a
ridurre gli sprechi alimentari e a preparare un futuro più sostenibile per
l’intero settore.
Fonte:
Guy Yehiav, Zebra Analytics, General Manager &Vice President Zebra
Technologies
La piattaforma di analytics
e intelligenza artificiale uniti con la flessibilità della tecnologia cloud
Disegnata per essere aggiornata e sempre disponibile, la nuova
release SAS®
Viya® 4, sul mercato a partire dalla fine del
2020, presenta una nuova architettura che aiuta a fornire gli analytics a tutti, ovunque.
L’innovazione che la caratterizza conferma l’impegno di Sas nel supportare le organizzazioni a
trasformare i dati in conoscenza.
<< Questa release segna un grande passo innovativo per la
piattaforma SAS e per i nostri clienti>>, afferma Oliver
Schabenberger, Coo and Cto di Sas.
<<Le organizzazioni ci chiedono di supportare la loro trasformazione digitale con agilità, velocità, automazione,
intelligenza e continuità. Queste sono le caratteristiche di SAS Viya 4:
cloud-native analytics e intelligenza artificiale per gli utenti di tutti i
livelli, trasformando la business intelligence in business “intelligente” in cloud.>>
<<Le aziende stanno apportando importanti cambiamenti
nella propria tecnologia di analisi dei
dati, guidata da architettura cloud-native>>,
afferma Dan Vesset, Group
Vice President, Analytics and Information Management di Idc. <<Sas Viya offre un modo flessibile ed
efficiente per eseguire carichi di lavoro di analisi dei dati all’interno di
architetture abilitate per container e microservizi. Le organizzazioni possono
disaccoppiare le analisi dagli ambienti per aumentare rapidamente i servizi e
soddisfare le esigenze decisionali in modo molto più agile.>>
Analytics ovunque e per tutti, che fanno la differenza
Sas sta semplificando il modo in cui l’AI e il machine learning sono integrati nel processo decisionale. Con una
nuova architettura cloud-native e la disponibilità di interfacce interattive e di
programmazione, i clienti Sas non
saranno più vincolati dal linguaggio di programmazione, dai silos di dati o da
competenze specifiche.
La preparazione automatizzata dei dati, il machine learning
(AutoML) e la distribuzione dei modelli migliorano la produttività delle
risorse in ambito data science e
portano le potenzialità di intelligenza
artificiale anche ai meno esperti.
SAS Viya 4 utilizza processi di continuous integration e continuous
delivery (CI/CD) che consentono ai clienti di scegliere gli intervalli di
release, così da avere accesso agli ultimi aggiornamenti e innovazioni nel
momento in cui sono disponibili.
Le organizzazioni analiticamente mature sanno che ogni decisione
che deriva dai loro modelli può avere un impatto significativo sui profitti.
Le tecnologie cloud si stanno evolvendo. L’architettura di SAS
Viya 4 è progettata per fare lo stesso. Consente infatti ai clienti di
sfruttare al massimo i propri investimenti in analytics attraverso software as
a service (SaaS) su cloud Sas, pubblico o privato.