Digital Transformation | Luiss Business School - School of Management
Digital Transformation
Digital Transformation
Digital Transformation
Digital Transformation

10 Settembre 2021

«Preoccupati per uso tecnologie Usa nel Polo del cloud, garantire la sovranità»

Parla Francesco Bonfiglio, amministratore delegato dell'associazione Gaia-X, a DigitEconomy.24, report Il Sole 24 Ore e Luiss Business School, dopo la presentazione della strategia nazionale per il cloud Gaia-X, associazione per il cloud europeo a cui l'Italia partecipa, esprime preoccupazioni per l'apertura potenziale, nel progetto di Polo strategico nazionale, alle tecnologie degli hyperscaler americani come Google, Microsoft, Amazon. Tecnologie, spiega l'amministratore delegato Francesco Bonfiglio a DigitEconomy.24 (report del Sole 24 Ore e della Luiss Business School) che «sono intrinsecamente impossibilitate a garantire l'immunità da giurisdizioni non sovrane, in particolare dall'applicazione del Cloud Act», normativa che consente ai tribunali Usa di richiedere in alcuni casi i dati gestiti dai provider americani anche in altri Paesi. Per tutelare la sicurezza dei dati, Bonfiglio chiede, quindi, che nei requisiti del partenariato per la realizzazione del polo siano specificati trasparenza, sovranità e l'interoperabilità dei dati. Gaia-X, a cui al momento partecipano 53 aziende italiane, in questo contesto può essere lo standard di riferimento condiviso.  Come giudica il consorzio Gaia-X l'impianto della strategia di governo italiano sul cloud nazionale? Da quello che ho letto e sentito finora credo che l'aspetto positivo sia la volontà del Governo di creare un'infrastruttura sicura, strutturata per livelli, in funzione della criticità del dato. È un progetto che ha senso. Inoltre ho letto che deve essere basato sulle tecnologie migliori esistenti sul mercato. I punti di partenza sono dunque correttissimi. Mi convince meno l'apertura potenziale a tecnologie che sono intrinsecamente impossibilitate a garantire l'immunità da giurisdizioni non sovrane, in particolare dall'applicazione del Cloud Act americano. Inoltre tali tecnologie proprietarie non danno, soprattutto nel contesto specifico che sostanzialmente è un re-platforming (cioè uno spostamento di applicazioni da una piattaforma a un'altra), un valore aggiunto maggiore rispetto a quelle aperte, commerciali o open source. Il ministro Colao ha parlato di sistemi di sicurezza diversi a seconda della sensibilità del dato. Nonostante ciò, si corrono ancora rischi? È necessario comprendere meglio i meccanismi di sicurezza da attuare. In teoria l'obiettivo è avere dati sicuri, gestiti a seconda del livello di sensibilità, in pratica tuttavia non si comprende appieno come l'agenzia per la Cybersicurezza realizzerà questi principi. Il progetto Gaia-X ha un fine preciso che è quello di realizzare infrastrutture dati trasparenti e sovrane, ovvero offrendo la completa visibilità delle caratteristiche dei servizi offerti e il loro controllo. Non vedo come qualunque cloud nazionale, ovvero che gestisce i nostri dati più preziosi, possa prescindere da offrire tali garanzie, ma per il momento non ho riscontro della loro esistenza nella scelta impostata dal Governo. Nei requisiti della gara o del partenariato secondo me bisognerebbe dunque porre l'accento sul rispetto di tre parole chiave: trasparenza, sovranità e interoperabilità dei dati. Come potrebbe contribuire Gaia-X? Gaia-X ha un obiettivo dichiarato di abilitare la creazione di data-space (spazi dove si possono condividere in modo sicuro dati di diversi attori, privati o pubblici, per creare servizi basati sui dati) attraverso la creazione di una infrastruttura cloud europea sicura, trasparente, interoperabile e sovrana che risponde a regole comuni in tutta Europa. Il layer infrastrutturale di Gaia-X è dunque il progetto più importante, non solo in Europa, per definire concretamente come raggiungere questi elementi di garanzia e dovrebbe essere preso a riferimento. Se il polo strategico nazionale è deputato a raccogliere i dati più importanti del Paese, deve quindi rispondere ai requisiti di trasparenza e sovranità attraverso un modello definito e condiviso da tutti gli attori che lo realizzeranno. Se non quello di Gaia-X, qual è il modello attraverso il quale ottenere queste garanzie? Certamente ne serve uno di riferimento e altrettanto certamente non potrà essere quello di uno specifico fornitore. Sono certo, dunque, che Gaia-X possa essere un elemento costituente della soluzione. Questo vuol dire che al polo strategico non potrebbero contribuire gli hyperscaler americani? Assolutamente no, Gaia-X sta creando un layer che permette di controllare tutti i servizi che vengono offerti allo stesso modo. È una questione di equità e, di nuovo, di trasparenza. Un fornitore cloud italiano, così come uno americano, possono teoricamente offrire i servizi in chiave Gaia-X se decidono di esporli attraverso un formato di descrizione comune. Il secondo elemento necessario è l'apertura alla ispezionabilità delle caratteristiche dichiarate in questo descrittore. I componenti che Gaia-X sta sviluppando permetteranno di leggere le caratteristiche del servizio, verificarne la veridicità e tenerne traccia in un registro immutabile e incorruttibile. Le caratteristiche potranno poi essere riscontrate attraverso delle etichette che dimostrano il livello di conformità senza doversi fidare di dichiarazioni scritte e senza dover ispezionare la tecnologia dall'interno. Ma, anche al di là del progetto Gaia-X, ribadisco che è fondamentale fare riferimento a servizi ispezionabili, verificabili secondo un descrittore comune, garantendo l'interoperabilità per qualunque cloud che si possa definire ‘sovrano'. Le tecnologie utilizzabili a quel punto sono tutte senza esclusioni. Tuttavia, al momento, nessuna delle tecnologie Hyperscaler, basate su architetture chiuse e proprietarie, può offrire questo tipo di trasparenza e controllabilità. In conclusione, il polo strategico nazionale si basa fondamentalmente, in questa prima fase che durerà ben cinque anni, sulla scelta di un nuovo layer infrastrutturale, va dunque trovato uno standard, che sia quello di Gaia-X o altri che però al momento però non esistono. Il modello scelto dalla Francia dà sufficienti garanzie di sicurezza? È un modello che si basa su doppia chiave crittografica, è come se si consentisse di usare casa propria, consegnando le chiavi, ma tenendone una copia. Per un hyperscaler, le cui architetture sono state pensate per essere chiuse, fortemente uniformate e interconesse tra di loro per poter ottimizzare i servizi a valore aggiunto (monitoraggio, sicurezza, provisioning, etc.) proporre un modello disconnesso e sganciato dal cloud centrale è un ossimoro o una chimera. A livello tecnologico si potrebbero verificare due scenari. Nel primo caso si potrebbe creare una copia locale, ma questa non funzionerà come quella della casa madre perché non agganciata ai servizi centrali, non aggiornata, non monitorata e messa in sicurezza dai controlli centralizzati. Insomma, una architettura destinata all'obsolescenza. Nel secondo caso – che è peggiore – si creerebbe una realtà apparentemente a controllo pubblico locale, ma di fatto agganciata a quella centrale per beneficiare di tutte le caratteristiche di quest'ultima. Il titolare dunque risulterebbe una sorta di prestanome: si è trovato un escamotage al Cloud Act? No, perché di fatto il vero proprietario rimane l'hyperscaler americano. Si è risolta la questione dal punto di vista giuridico, forse, ma non da quello tecnologico. Anche per queste ragioni i player del consorzio Gaia-X sono preoccupati, e proporranno l'uso di Gaia-X. Non ho dubbi che il Governo accetterà questo tipo di consiglio. Come risolvere, infine, l'eventualità della partecipazione degli hyperscaler alla luce del Cloud Act americano? Ci aspettiamo che tutti gli operatori di mercato, compresi gli americani, si adatteranno alle esigenze che la comunità europea sta esprimendo attraverso un progetto come Gaia-X, ma più in generale dalla diffusa domanda di trusted platforms. Peraltro, Google, come Microsoft e Amazon, sono tra i partecipanti al nostro progetto. È necessario, come suddetto, focalizzarsi non sulla tecnologia ma sull'apertura, trasparenza e ispezionabilità dei servizi offerti. A livello pratico poi, l'unica soluzione per essere totalmente immuni dal Cloud Act oggi, è avere una soluzione totalmente basata su tecnologie aperte, non proprietarie, localizzata in siti e governata da operatori che rispondano alle giurisdizioni italiana ed europea. Da sempre le infrastrutture dati più sicure al mondo, dalla difesa allo spazio, alla ricerca, risiedono su infrastrutture totalmente proprietarie e cloud completamente aperti e basati su standard di sicurezza e trasparenza elevati. Il Cloud Act verrà risolto, spero, e dunque potremo muovere i nostri dati più liberamente, ma è importante partire col piede giusto e dunque assicurarci il completo controllo dei servizi che saranno alla base del Psn e dunque dei nostri dati più sensibili. SFOGLIA IL REPORT COMPLETO 10/9/2021

10 Settembre 2021

Almaviva:«Proposta sul cloud entro le prossime settimane, aperti a collaborare»

Parla il presidente Alberto Tripi, a Digiteconomy.24, report del Sole 24 Ore Radiocor e della Luiss Business School. Intanto il gruppo, che ha manifestato interesse per il polo nazionale con Aruba, lancia Almaviva Cloud Factory La società dell'innovazione digitale Almaviva, in partnership col provider italiano Aruba, «è pronta a fare la sua parte» nella partita del cloud nazionale e «lavora alla proposta da presentare al Ministero nelle prossime settimane». A contempo, spiega Alberto Tripi in un'intervista a Digiteconomy.24 (report del Sole 24 Ore Radiocor e della Luiss Business School) il gruppo, che ha già lanciato la Almaviva Cloud Factory, una sorta di fabbrica cloud, è «aperto a collaborare» con le altre aziende in campo. Il momento, chiosa Tripi, «è magico» e non si può perdere questa occasione visto che c'è «finalmente una proposta per realizzare quello che da anni stiamo chiedendo». Il Governo ha di recente presentato la sua strategia per il progetto di cloud nazionale che prevede la creazione di un polo strategico nazionale: entro il 2025 il 75% dei dati della Pa dovrebbe migrare nella "nuvola". Almaviva, al momento, gestisce oltre 3.000 sistemi cloud e assicura che il partner Aruba «ha potenza sufficiente per gestire almeno le applicazioni dei soggetti fragili». Presidente Tripi, in cordata con Aruba avete presentato una manifestazione di interesse per il cloud nazionale, andrete avanti con un'offerta nei prossimi giorni come richiesto da Colao? Innanzitutto è da dire che la nostra manifestazione di interesse è totalmente italiana, non ci sono soggetti esteri nell'azionariato delle nostre società. In Italia, tra l'altro, si ritiene di non essere in grado di raggiungere traguardi tecnologici ambiziosi. Noi, che collaboriamo anche con gruppi americani come Amazon e Microsoft, affermiamo, invece, che la potenza di Aruba è sufficiente per gestire almeno le applicazioni dei soggetti fragili. In generale, il progetto di cloud nazionale rappresenta un grande snodo per lo sviluppo del nostro Paese, finalmente c'è una proposta che può realizzare quello che da anni stiamo chiedendo. Noi, peraltro, siamo già sulla buona strada con la recente creazione con Aruba della nostra Almaviva Cloud Factory, una sorta di fabbrica cloud. Come nei processi manifatturieri, si prende cioè la materia prima, in questo caso i dati grezzi o semilavorati dei nostri clienti che, attraverso processi informatici vengono trasformati in cloud, facendoli diventare pronti a essere interrogati e a entrare in contatto tra loro. È il nuovo modo di fare fabbrica. Vogliamo così essere ancora più vicini ai nostri clienti cloud, tra i quali si contano già Ferrovie dello Stato, Miur, Ministero della Giustizia, Aifa, AgID, Anas, Ubs, Rai, Deutsche Bank. Ora stiamo lavorando alla presentazione di una proposta entro le prossime settimane, secondo le indicazioni del Ministro. Una proposta capace di mettere le nostre migliori competenze in ambito Cloud al servizio della modernizzazione del Paese perché, come ha sottolineato lo stesso ministro Colao, è sulla valutazione delle competenze che si misurerà la competizione ed il successo del progetto. Siete aperti a collaborazioni con gli altri gruppi che hanno presentato le manifestazioni di interesse? Noi siamo pronti a giocare il nostro ruolo e siamo in grado di mettere a disposizione la nostra esperienza. Ma nessuno pensa di essere il deus ex machina e poter fare tutto da solo, quindi - e su questo punto posso parlare anche a nome di Aruba - siamo pronti a collaborare. La congiuntura è favorevolissima, il ministro dell'Innovazione e della transizione digitale, Vittorio Colao, non è solo bravo, ma può anche disporre di un portafoglio per poter competere. Inoltre, a guida del ministero della Pa c'è il ministro Renato Brunetta, anche lui molto favorevole alla digitalizzazione. È un momento magico, non possiamo farcelo scappare. Si è parlato del coinvolgimento di grandi gruppi americani, come Google e Microsoft, nella realizzazione del cloud italiano. Come proteggere i dati sensibili anche alla luce di leggi come il Cloud Act americano che danno poteri ai giudici statunitensi anche sui dati conservati all'estero dai provider Usa? Varie aziende hanno presentato una proposta al Ministero, alcune delle quali in collaborazione con dei player americani, si tratta di una scelta fatta a monte. In questo caso ci sono norme che possono mettere in dubbio la capacità di proteggere i dati sensibili. Nel sistema francese, ad esempio (simile a quello presentato di recente da Colao, ndr), si usa un sistema di crittografia, d'accordo con gli operatori stranieri. Noi, dal canto nostro, siamo in grado con la nostra potenza elaborativa in Italia di gestire in sicurezza almeno tutti i sistemi definiti fragili. Sistemi che, peraltro, stiamo già per larga parte gestendo. Chi garantirà la sicurezza dei dati degli italiani? I sistemi in cloud non possono essere interrogati da chiunque, ma devono passare da un imbuto di collegamento, dove ci sono le capacità di cybersecurity. Visto che si tratta di un progetto di partenariato pubblico e privato, si prevede che il privato proponga una realizzazione e che lo Stato, qualora la giudichi favorevolmente, la faccia sua. Una volta compiuta la scelta, lo Stato diventa il custode del progetto. Se, da un lato, il privato lo realizza, dall'altro il pubblico sarà, dunque, garante della sicurezza. Colao ha dato una tempistica per il cloud nazionale e la migrazione dei dati della Pa. Quali sono le principali difficoltà? C'è una mole di lavoro da svolgere davvero grande, perché bisogna trasferire sul cloud i sistemi informativi di grandi complessi italiani come Inps e Inail, che già peraltro gestiamo. Bisogna passare da sistemi no cloud a sistemi in cloud. Il ministro Brunetta dice che vanno rivisti in maniera generale i processi dell'amministrazione. C'è, dunque, spazio e lavoro anche per le piccole imprese che sono molto vicino alla periferia del nostro Paese. D'altro canto, una volta realizzata la trasformazione, la Pa potrà svolgere molte più attività e stare più vicina ai cittadini. Nel campo del turismo manca una piattaforma italiana: questa potrebbe essere un'attività, solo per fare un esempio, da portare avanti.  SFOGLIA IL REPORT COMPLETO 10/9/2021

10 Settembre 2021

«Serve un accordo diplomatico con gli Usa per tutelare i dati europei»

Parla il giurista Innocenzo Genna, specializzato nella normativa europea del digitale, a DigitEconomy.24, report Sole 24 Ore e Luiss Business School Sicurezza dei dati e difesa della sovranità italiana ed europea: sono tra i problemi che si porranno nella discussione per la creazione di un polo strategico nazionale per il cloud. «Ci sono svariate esigenze che vanno studiate assieme, e serve, quindi, una mediazione. Da un lato – spiega a DigitEconomy.24, report del Sole 24 Ore e della Luiss Business School, Innocenzo Genna, giurista specializzato nella normativa europea del digitale – c'è l'esigenza della sicurezza, cioè di trovare provider che consentano ai dati strategici della pubblica amministrazione di essere sicuri da attacchi informatici o spionaggio». Dall'altro, serve «sicurezza non solo in termini di cybersecurity ma anche in termini giuridici». Occorre fare i conti con la normativa Usa del Cloud Act e il Fisa 702 In particolare, bisogna fare i conti con il Cloud Act, una legge americana che consente ai tribunali statunitensi di avere accesso ai dati custoditi dai provider Usa anche fuori dal loro Paese, persino in server europei. C'è inoltre il Fisa 702, la normativa dell'intelligence americana che consente ai servizi di sicurezza Usa di accedere a dati stranieri senza nemmeno passare da un giudice. «È evidente – aggiunge Genna – che il Governo italiano dovrebbe selezionare solo cloud provider chiaramente esenti da questi pericoli. La strategia cloud Italia, appena annunciata, menziona tutte queste criticità, ma non spiega ancora come risolverle. Si tratta di dettagli, ma sono importanti. Il Governo pone una forte enfasi sullo strumento della cifratura dei dati che, però, è pienamente efficace solo per le fasi di deposito, ma non di elaborazione che normalmente avviene in chiaro. È probabile che si sia ancora alla ricerca di una soluzione definitiva». La Francia consente l'uso delle tecnologie Usa a patto che non si inneschi il Cloud Act Il tema è rilevante, tanto che i francesi lo hanno già affrontato. Oltralpe, spiega Genna, non hanno «completamente escluso l'utilizzo di tecnologie straniere, ma sostengono che il cloud provider debba avere una casa madre europea, con server situati in Europa. Poste queste garanzie, non è escluso l'utilizzo delle tecnologie americane nella misura in cui non si inneschi il Cloud Act americano, mentre ancora non si capisce come i francesi pensino di contrastare il Fisa 702». Il modello francese, «che sembra buono dal punto di vista teorico e come punto di partenza, dovrà però essere testato in pratica. Italia e Francia si parleranno sicuramente perché i rispettivi modelli appaiono simili». Tutto ruota attorno al rischio di interferenze Usa, ma non bisogna dimenticare che «la normativa americana è soggetta a una procedura simile alla nostra, i giudici americani sono indipendenti, hanno un sistema giudiziario separato dagli altri poteri, sono soggetti a norme di legge che conosciamo; è quindi un sistema, differente da altri come quello cinese, con cui possiamo dialogare ma del quale ancora non ci possiamo fidare. «Sarebbe opportuno che l'Europa si muovesse in maniera uniforme» Con gli Usa ci vorrà, dunque, un accordo diplomatico per regolamentare l'interferenza di giudici ed Autorità sui dati europei. Si tratta, d'altronde, di una questione anche nell'interesse degli stessi americani: se non si trova una soluzione credibile, i provider Usa perderanno l'accesso al mercato europeo». In questo scenario sarebbe opportuno che «l'Europa si muovesse in maniera uniforme». Il tema della sicurezza dei dati, peraltro, è già in cima all'agenda europea. «Con le sentenze Schrems, la Corte di giustizia europea - ricorda Genna - ha ad esempio annullato gli accordi che consentivano di trasferire i dati personali europei in America». Nel caso del cloud «c'è un problema analogo, ma più ampio, perché riguarda anche i dati non personali che però possono essere ugualmente strategici (come i dati della Pa). La Ue dovrà negoziare tutto questo, ma mentre nel caso Schrems lo sta già facendo, con il cloud siamo in ritardo, si va avanti con iniziative nazionali. Non credo - aggiunge il giurista - si possa avere un accordo quadro europeo in tempi molto brevi. In assenza di tale accordo, gli Stati europei si parleranno tra di loro, si consulteranno con Bruxelles, cercheranno di andare avanti con principi già testati da altre cancellerie. Ogni situazione è diversa. In Francia e Germania, grazie alla presenza di consolidati cloud provider nazionali (Atos, Ovh e Deutsche Telekom) in grado di ridurre il contributo extraeuropeo, i Governi si sentono fiduciosi di poter andare più veloci. In Italia la situazione appare diversa e un po' più complicata poiché alcune grandi aziende nazionali (Tim, Leonardo) hanno fatto o annunciato accordi con operatori americani, i quali però tenderebbero a mantenere la leadership tecnologica rispetto al partner locale. Tutto questo pone un problema di sicurezza nazionale». «Il Governo giochi un ruolo di politica industriale» Di fronte a queste problematiche, infine, «il Governo dovrebbe giocare un ruolo di politica industriale e usare le gare per il cloud della Pa come leva per spingere l'industria italiana a essere più autonoma tecnologicamente, creando le premesse per la crescita dei cloud provider nazionali». D' altra parte, le esigenze della Pa sono più semplici del mercato privato, quindi non vi è necessariamente bisogno degli hyperscaler americani. Difatti, francesi e tedeschi stanno usando il pubblico proprio per far crescere l'industria nazionale». In conclusione, per il polo nazionale, si potrebbero «far crescere le aziende italiane ed europee che garantirebbero al 100% la sicurezza dei dati e la tecnologia che serve». Per quanto riguarda, invece, il cloud del mercato privato «non si può impedire agli Usa di fornire servizi in Europa, ma bisognerebbe porsi il problema dello strapotere degli Usa (e dei cinesi). Occorre, quindi, anche per risolvere questo problema, far crescere l'industria nazionale ed europea attraverso a leva della spesa pubblica. Ciò vale in particolare per i fondi del Pnrr: è inconcepibile che tali fondi europei possano essere utilizzati per incrementare il divario tra la tecnologia straniera e quella europea/ nazionale». SFOGLIA IL REPORT COMPLETO 10/9/2021

10 Settembre 2021

Anche per il cloud modelli regolatori basati sull’intelligenza artificiale

L'intervento di Fabiana Di Porto, professoressa di diritto dell'economia alla Luiss e di diritto e tecnologia Lo scorso 7 settembre il Governo ha presentato la strategia per il Cloud di dati e servizi della Pubblica amministrazione. Si tratta di un'infrastruttura strategica per l'Italia nell'offerta dei servizi pubblici del futuro. Il bel documento propone una complessa rete di governance dei rapporti tra soggetti pubblici e privati: più il servizio è critico meno il privato sarà ammesso a partecipare, e viceversa. Il modello di governance è interessante, ma molto diverso da quello adottato, ad esempio, in Francia o Danimarca per la gestione dei dati pubblici, dove sono partiti prima di noi. Quello dell'agenda Cloud è uno dei tanti casi che mi consentono di evidenziare l'utilità di avvalersi di un metodo sperimentale, prima di adottare una configurazione in modo definitivo: quello delle Regulatory Sandbox. Quando è l'intelligenza artificiale a regolare…insieme agli umani La regulatory sandbox serve ai legislatori e regolatori a decidere in ambiti affetti da grande incertezza (quale il rapporto tra l'umanità e i robot). Consente di sperimentare diverse soluzioni in ambiente controllato prima di traslarle su larga scala, al fine di osservarne i possibili effetti sugli stakeholder. In tal senso, la Regulatory sandbox consente di definire i confini tra quanto rischio siamo disposti ad accettare e quanto invece è meglio vietare, oppure assoggettare a controllo in attesa di maggiori informazioni. Oggi questa possibilità sperimentale è espressamente prevista dalla proposta di Regolamento UE sull'Intelligenza Artificiale dalla Commissione, del 21 aprile 2021. Nell'economia del regolamento, la Regulatory sandbox serve a disegnare regole ‘future-proof' o disegnate per restare (come certi edifici), e resilienti (cioè adattabili a condizioni ambientali variabili). Per norme giuridiche future-proof nell'Ai disegnarle per principi, e non in dettaglio Venendo allo specifico dell'Intelligenza artificiale, dire che una norma giuridica debba essere future-proof, significa disegnarla per principi (anziché con disciplina di dettaglio), mentre renderla resiliente significa ancorare tali principi su due punti cardinali: la proporzionalità (a piccolo rischio poca intrusività della regola) e la promozione dell'innovazione. Raggiungere questi obiettivi sarà possibile, secondo la Commissione, se ci si avvarrà di regulatory sandboxes, un modo certo non classico di fare diritto e regole. Esse sono indicate nella proposta di Regolamento come ‘innovation friendly' e ‘resilient to disruption'. Come dire che, affinché la creazione del diritto sia capace di assicurare l'innovazione, deve farsi innovativo anch'esso. E questo è un messaggio che il legislatore europeo ha fatto proprio. Nel caso dell'IA gli effetti del suo utilizzo sono solo in parte prevedibili. Nel senso che i sistemi che si avvalgono di questa innovazione potrebbero in futuro far sorgere rischi per la salute, la sicurezza e i diritti fondamentali. Ma al tempo stesso non possiamo bloccarne lo sviluppo senza neppure testarne le potenzialità, in quanto queste potrebbero essere positive, ed esserlo in maniera dirompente (o disruptive). Ecco, quindi, che a livello europeo, il principio chiave della regolazione dei sistemi potenzialmente rischiosi di IA è quello di consentire agli Stati membri di sperimentarli prima di immetterli sul mercato. Nella Ue occorre dotarsi di spazi normativi controllati dove sviluppare le applicazioni di Ai Gli articoli 53, 54 e 55 definiscono la procedura. Gli Stati membri sono tenuti a dotarsi di sandboxes domestiche, ovverosia di spazi normativi controllati, nell'ambito dei quali le applicazioni di Intelligenza artificiale (Ai) potranno essere sviluppate, testate e temporaneamente validate. Ove nella sandbox si rilevasse un rischio per la salute, la sicurezza o i diritti fondamentali non mitigabile attraverso le regole, allora le stesse saranno accantonate. La novità consiste pertanto nel ‘carattere temporaneo' delle regole. Queste potranno infatti essere ‘adattate', nella regulatory sandbox, o ‘accantonate' per un periodo di tempo specifico, al fine di verificare se saranno in grado di funzionare meglio su un determinato prodotto. Chiaramente, la circostanza che si tratti di un ambiente controllato diviene fondamentale per il buon esito della sperimentazione della regola. L'iniziativa è assunta dal regolatore nazionale (che nel caso italiano potrebbe essere l'Agcom o l'Autority cyber), al quale spetta individuare i soggetti (pochi) che parteciperanno alla sperimentazione. La logica è quella di consentire l'ingresso di un nuovo prodotto normativo (o la governance del Cloud) che, ancorché non necessariamente conforme alle regole esistenti, possa arrecare un possibile o effettivo beneficio per gli utenti o i consumatori. Il regolatore accompagna così lo sviluppo dell'innovazione, sorvegliandone l'ingresso sul mercato. Più coorti di innovatori concorderanno con il regolatore come svolgere gli esperimenti, che tipo di regole vigenti sospendere, e quali regole dovranno essere rispettate. Gli interrogativi sulle regulatory sandbox Fin qui le potenzialità delle Regulatory sandbox sembrano indubbie. Ma non mancano gli interrogativi: la disciplina dettata è molto scarna. Non sappiamo, ad esempio, come saranno organizzate in concreto le sandboxes negli Stati membri. Sarà, ovviamente, importante superare la diversità del disegno delle regulatory sandbox. L'attuale formulazione della proposta di Regolamento, infatti, sembra lasciare margini agli Stati membri per delle differenze. Spetterà alla disciplina di attuazione stabilire in futuro regole comuni per l'implementazione delle sandbox normative e per la cooperazione tra gli Stati membri. L'esempio delle sandbox usate in ambito FinTech non fa ben sperare: sono molto diversi i modelli adottati ed ancora non è prevalso un tipo istituzionale più efficiente di altri. Tuttavia, alcune regole di funzionamento che si ripetono cominciano ad emergere, come ad esempio quella di stabilire un set di regole da cui i regolatori possono deviare ed un set, per così dire, inderogabile. E' verosimile attendersi che per le sandbox nell'Intelligenza artificiale sarà fatto lo stesso. Inoltre, l'esempio FinTech è interessante anche sotto altro profilo. Esso è servito e tuttora aiuta a stimolare l'innovazione finanziaria specialmente dei piccoli operatori. Faranno ricorso a questi strumenti Pmi e startup Anche qui, dunque, c'è da attendersi che le piccole e medie imprese e le startup faranno un certo ricorso a questi strumenti, essendone i principali beneficiari. Al tempo stesso, tuttavia, è difficile immaginare che le Big Tech trarranno davvero profitto da questo strumento. Esso resterà, molto verosimilmente, un modello utile per garantire che ci sia innovazione prodotta da piccoli e medi soggetti. Un ultimo punto riguarda le regole di partecipazione e trasparenza delle regulatory sandbox. Affinché si possano produrre regole in linea con standard minimi di legittimità democratica, è necessario che siano definite regole (anche minime) per la partecipazione alla sandbox e di trasparenza delle decisioni. Quello che infatti può apparire un tema tecnico di validità "esterna" degli esperimenti (ad es. quante Pmi devono partecipare alla sandbox? Quindici o cinquanta? E quanti regolatori? Solo settoriali o generali? E chi tra i data scientist?) è anche e forse ora soprattutto un problema istituzionale. Chiariamo il punto. Stabilire chi è ammesso a una sperimentazione è certamente un problema di design di un esperimento, come sanno bene gli economisti. Esso condiziona la validità dei risultati e quindi l'efficacia del messaggio. Nel caso delle regulatory sandboxes applicate all'Intelligenza artificiale, si stanno testando regole per applicazioni potenzialmente dannose. Disegnare l'ambiente del testing è quindi non solo un problema di efficacia teorica dell'esperimento, ma anche questione di produrre regole partecipate da un numero di soggetti rappresentativi secondo canoni di democraticità; significa altresì dare accesso, con modalità da definire, ai metodi e alle procedure con cui si è addivenuti a quelle regole; significa infine motivare, la scelta operata. La strada per la definitiva approvazione di questa proposta di Regolamento è ancora lunga. Sono dunque da attendersi molti cambiamenti nei prossimi anni. Per questo ritengo che l'idea della regulatory sandbox sia particolarmente confacente al modello di una normativa a prova di futuro per l'innovazione, per l'Intelligenza artificiale, attraverso la sperimentazione in ambienti controllati, ma da definire nel quadro di regole di partecipazione (o co-regolazione) "umana".  SFOGLIA IL REPORT COMPLETO 10/9/2021

10 Settembre 2021

«Pronti all’offerta per il polo del cloud, ma serve par condicio di informazioni»

Parla Antonio Baldassarra, amministratore delegato di Seeweb, una delle aziende del Consorzio Italia Cloud, a a DigitEconomy.24, report Il Sole 24 Ore Radiocor e Luiss Business School Il Consorzio Italia Cloud, che ha già manifestato interesse per il polo strategico nazionale, «parteciperà con un'offerta». Lo chiarisce Antonio Baldassarra, presidente e ad di Seeweb, una delle aziende che fa parte della compagine. Tuttavia, chiarisce a DigitEconomy.24 (report del Sole 24 Ore Radiocor e della Luiss Business School) «ora siamo in attesa che il ministero dell'Innovazione precisi le condizioni per presentare l'offerta. Abbiamo appreso che c'è stato un dialogo tra il ministero e una serie di soggetti che ha presentato la manifestazione di interesse, chiediamo ora di avere le stesse informazioni degli altri». Per il resto, spiega Baldassarra, «malgrado avessimo auspicato un'affermazione più ampia dei requisiti richiesti ai vari soggetti per il trattamento dei dati, abbiamo apprezzato e rispettato l'approccio ecumenico del scelto dal Ministro». «La nostra non è un'azione di disturbo» La partita del cloud nazionale ha registrato l'interesse di pesi massimi come Tim e Leonardo. Ma quella del consorzio «non è un'azione di disturbo» e, nonostante le piccole dimensioni, le aziende in pista, spiega Baldassarra, hanno le carte in regola per poter gestire il cloud della Pa. Anzi, la commessa pubblica potrebbe essere lo stimolo alla crescita delle aziende italiane. Seeweb nasce nel '98 come service provider, agli albori di Internet, per poi intuire, dal 2005, le potenzialità del cloud computing. Di recente ha fondato, assieme a Sourcesense, Infordata, Babylon Cloud, Eht e NetaliaIl, il Consorzio Italia Cloud che, «è nato a inizio luglio in concomitanza con l'accelerazione che negli ultimi mesi si è avuta con l'azione del ministro Colao». Il consorzio, al momento, raggruppa sei realtà per un fatturato totale di 270 milioni di euro e 1.890 dipendenti. «Per fare cloud non è necessario essere player globali» «Operatori globali come Microsoft, Amazon e Google sono scesi in campo in vario modo per posizionarsi nella corsa al cloud italiano», ma per fare cloud, sottolinea Baldassarra, «non è necessario essere player globali». Bisogna, dunque, «sgombrare il campo da un tipico pregiudizio italiano secondo cui per fare il cloud bisogna avere una certa dimensione. Un tipo di ragionamento che ha portato alla candidatura di soggetti che non sono mai stati attori del cloud. Esistono, invece, operatori che giornalmente si confrontano col mercato e competono con quelli globali». Lo spirito del consorzio è, dunque, quello di proporre «una narrazione alternativa; è legittimo per i big player aspirare a entrare nel mercato italiano, ma lo è altrettanto per le società che si confrontano col mercato ogni giorno. Noi siamo certi di avere le capacità tecnologiche e le competenze necessarie. Ora bisognerà vedere nel dettaglio quali sono le richieste del Governo». D'altro canto, il consorzio, peraltro aperto all'ingresso di altre aziende, è pronto ad alleanze o collaborazioni: «Ci teniamo, tuttavia che qualsiasi forma potenziale di collaborazione venisse realizzata – spiega Baldassarra – valorizzando le imprese in prima battuta italiane, poi quelle europee, poi in terza battuta quelle al di fuori dell'Europa». «Il cloud della Pa è un'occasione per far crescere le imprese italiane» Resta, in conclusione, un punto fermo, secondo il ceo di Seeweb: «il cloud della Pa è un'occasione per far crescere le competenze e le imprese domestiche. Il nostro obiettivo è affermare che esistono aziende in grado di fare e che questo è uno dei casi in cui la commessa pubblica diventa uno dei motori della crescita del tessuto industriale del Paese. D'altronde, il ruolo propulsivo delle commesse pubbliche è stato decisivo anche per la crescita dei big Usa. Non ho dubbi che il Governo ne terrà conto».  SFOGLIA IL REPORT COMPLETO 10/9/2021

08 Settembre 2021

Giornata Mondiale dell’Alfabetizzazione: l’impegno per la formazione digitale per costruire nuove opportunità di crescita

Le competenze digitali rappresentano un fattore discriminante per l’accesso a Internet. Il divario esistente tra persone che accedono alla rete e individui con competenze digitali carenti suggerisce la necessità di intervenire in modo mirato e specifico per favorire l’alfabetizzazione digitale Commento di Paolo Boccardelli, Direttore Luiss Business School L'8 settembre in tutto il pianeta si celebra la Giornata Mondiale dell'Alfabetizzazione, una ricorrenza istituita dall'Organizzazione delle Nazioni Unite per sensibilizzare l'opinione pubblica sulla necessità di assicurare i percorsi di apprendimento di bambini, giovani e adulti. Si stima che nel mondo ci siano 773 milioni di persone non alfabetizzate , fenomeno aggravato sia dalla pandemia Covid-19 sia dalle crisi migratorie. Tuttavia, anche in questo momento di difficoltà globale, numerose organizzazioni sono al lavoro per garantire l'accesso all'istruzione e la costruzione di nuove opportunità di crescita per ogni tipo di Paese. La crisi legata al Covid-19 è stata un banco di prova importantissimo per le competenze digitali: sono cresciute le applicazioni digitali legate alle prestazioni sanitarie; è aumentato l'impegno delle imprese chiamate a garantire la continuità dei propri servizi tra smart working e prestazioni da remoto; numerosi settori rimasti indietro sono stati costretti a digitalizzarsi in parallelo con l'emergenza, rincorrendo. Per far fronte a queste richieste pressanti del nostro tempo, abbiamo dovuto interrogare i nostri livelli di alfabetizzazione digitale, un fronte caldo su cui il mondo della formazione con Luiss Business School in testa, è fortemente impegnato. Alfabetizzazione in Italia e UE: lo scenario che emerge dall'indice DESI In generale, negli ultimi quattro anni il livello europeo di questo bagaglio di conoscenze ha continuato ad aumentare lentamente, raggiungendo circa il 60% delle persone con almeno competenze digitali di base, e oltre il 30% con competenze digitali di base superiori. Tuttavia, c'è ancora molto da fare. Secondo il Digital Economy and Society Index (DESI) 2020 l’Italia si colloca all'ultimo posto nell'UE per quanto riguarda la dimensione del capitale umano. Solo il 42% delle persone di età compresa tra i 16 e i 74 anni possiede almeno competenze digitali di base e solo il 22% dispone di competenze digitali superiori a quelle di base. Le competenze digitali rappresentano un fattore discriminante per l’accesso a Internet, e il divario esistente tra persone che accedono alla rete e individui con competenze digitali carenti suggerisce la necessità di intervenire in modo mirato e specifico per favorire l’alfabetizzazione digitale. Secondo l’ISTAT, nel 2019 nella fascia d’età 16-74 anni, il 44,3% delle donne possiede competenze digitali complessive basse rispetto al 39% degli uomini. Viceversa, il 26% delle donne ha competenze digitali complessive elevate rispetto al 32,1% degli uomini. In Italia, tra i motivi per cui le famiglie non possiedono accesso a Internet, rientrano il fatto che nel 56,4% dei nuclei nessuno sa usare internet e che il 25,5% non lo considera utile oppure interessante.Sul versante aziendale, sempre il Digital Economy and Society Index segnala che il 35% delle imprese italiane scambia informazioni elettroniche, una percentuale in linea con il 34% delle compagnie europee. Il 22% delle stesse è impegnato sul fronte della gestione dei dati e comunicazione attraverso i social media, percentuale leggermente inferiore rispetto alla media europea, pari al 25%. Il 15% delle imprese investe in cloud (in Europa lo fa il 18%), ma solo il 7% investe in big data rispetto al 12% delle imprese europee. Questo gap tra la media nazionale e quella comunitaria suggerisce un'altra carenza, forse più cruciale: quella di tecnici alfabetizzati digitalmente, capaci di interpretare questi dati e trasformarli in occasione di business. Business Translator: chi sono e perché le nostre aziende ne hanno sempre più bisogno Non saper trasformare i dati in attività d'impresa può avere un'importante ricaduta anche sulla leadership. Infatti, in Italia ma anche all'estero, la data driven leadership è ancora un miraggio. C'è ancora molto lavoro da fare. L'intelligenza artificiale è una delle strade perseguibili, ma non senza trascurare il quadro giuridico in cui incorniciare il fenomeno. Un ruolo molto importante lo avranno anche le regolamentazioni, come il Nuovo regolamento europeo sull’intelligenza artificiale su cui la Commissione Europea è al lavoro. Stando a ciò che è stato proposto sinora, questo quadro normativo non penalizza eccessivamente gli investimenti, ma in futuro sarà utile capire come si calerà nel tessuto delle imprese europee e italiane. Al momento l'intelligenza artificiale è già presente in molti settori della società: è nei device che usiamo come privati cittadini, ma ci sono anche tecnologie avanzate per l’analisi dei dati nell’industria 4.0, ovvero nei macchinari acquistati dalle imprese che hanno rinnovato il loro parco macchine. Ma la verità è che non basta la tecnologia per essere un membro che crea valore attraverso la rivoluzione digitale.Si stima che l'intelligenza artificiale potrebbe produrre benefici fino al 40% in termini di produttività nei Paesi sviluppati . Di conseguenza, la figura Business Translator diventa più rilevante, cioè persone che all’interno delle funzioni organizzative tradizionali sono in grado di comprendere le potenzialità di queste tecnologie dell’analisi dei dati e calarle sul business attraverso nuovo marketing, nuova finanza e nuova manutenzione. Queste funzioni richiedono un investimento sulla formazione di competenze nei professionisti che sono già nelle imprese o che arriveranno all’utilizzo saggio e intelligente, nonché di valore di tutta questa potenzialità. Enti come Luiss Business School sono chiamati a colmare il mismatch tra competenze richieste e talenti, oltre ad aiutare le aziende e rendere più fluidi i rapporti tra domanda e offerta del mondo del lavoro. In questo momento storico, è necessario guardare a ogni comparto della nostra economia anche con la lente dell'investimento, per assicurare la crescita e la sostenibilità dei diversi settori nel tempo. In questo contesto la formazione subisce un grande salto di specie. Le capacità di gestione tecnica non bastano più: in ogni ambito economico chi opera è chiamato a interfacciarsi con una necessaria e onnipresente trasformazione digitale. Il che significa non solo gestire delle infrastrutture, ma avere anche quelle competenze di innovazione e di servizio per stare accanto a imprese, istituzioni, piccoli operatori, professionisti individuali, con capacità legate ai dati, all'intelligenza artificiale, alla cybersecurity.Passare da una visione chiusa a una aperta di open innovation e di ecosistemi significa trasformare radicalmente le competenze. Nel farlo, il ruolo delle istituzioni di formazione diventa centrale: bisogna essere in grado di lavorare insieme non tanto sulle competenze hard, quanto sulla capacità di vedere le nuove tecnologie in funzione dentro le organizzazioni. Oggi una "famiglia" completa è costituita da un ingegnere dei dati, un analista dei dati e almeno cinque business translator. Tutto questo non può diventare realtà se non formando i talenti e formando i professionisti con un deciso intervento di upskilling e reskilling. La rivoluzione del lavoro richiede nuove competenze nella gestione dello stesso anche all'interno delle organizzazioni sindacali e del settore legato alla gestione delle risorse umane. Abbiamo bisogno di competenze nuove, che accademie come la nostra hanno il dovere di provare a costruire. 8/9/2021

26 Luglio 2021

Francesca Mastrogiacomi: «Nell’era post-digitale abbiamo bisogno di facilitatori di cambiamento»

Al via il percorso di formazione Flex Digital Teaching for Learning targato Luiss Business School. Gli obiettivi sono tantissimi, ma quello più importante resta uno: formare professionisti capaci di ridisegnare le esperienze di apprendimento dentro e fuori le aziende  Francesca Mastrogiacomi si occupa di formazione da sempre. Con 12 anni di esperienza manageriale internazionale in ambienti di lavoro innovativo come Google, esperta in digital transformation, innovazione, gestione del cambiamento, strategia, sales e operations, ha focalizzato la sua attenzione su didattica, ricerca e learning design. Dalla sua visione è nato il nuovo Flex Digital Teaching for Learning di Luiss Business School, un programma di formazione e strategie di didattica a distanza pensato per chi già lavora in realtà legate alla formazione o opera in questo campo in ambito aziendale.   Francesca Mastrogiacomi, la pandemia ci ha catapultati in un mondo nuovo, dove ci siamo trovati a fronteggiare l'inaspettato, nel managing the unexpected: che ruolo ha la formazione in questo?   Milton H. Erickson diceva «È il cambiamento che porta a nuove prospettive molto più di quanto nuove prospettive portino al cambiamento». Nella parola “managing” c’è l’idea della “gestione”, di una sorta di controllo o contenimento. Con l’ignoto e il nuovo a volte funziona la capacità di lasciare andare vecchi schemi per accogliere l’inaspettato. Insegnare e imparare sono i lati della stessa medaglia: formatori e studenti condividono lo stesso laboratorio di co-creazione attiva di conoscenza. Il docente ci mette gli strumenti metodologici, critici e dei contenuti stimolo, strutturati sapientemente. Lo studente usa agevolmente nuovi strumenti e ambienti digitali, ci mette la curiosità e la capacità di risolvere nuovi problemi insieme ai suoi pari. Soprattutto con gli adulti è l’apprendimento esperienziale, se opportunamente sostenuto da dinamiche di facilitazione e di debrief, che ingenera apprendimento profondo e cambiamenti duraturi nella vita quotidiana.   Il Covid ha portato la digital transformation nel cuore delle aziende. Annullata la socialità, siamo stati costretti a cercarla e a ricrearla altrove, online. Non sempre le competenze si sono rivelate all’altezza. Perché? Come rimediare?   Si è reso necessario un cambio di paradigma per le organizzazioni pubbliche e private. In tempi pre-pandemici, la trasformazione digitale si è preoccupata troppo di piattaforme o tecnologie e troppo poco delle implicazioni per le persone. Ora, alcune delle sfide sono: rimettere il benessere delle persone al centro; intessere le reti delle piattaforme digitali con quelle di una ritrovata socialità; facilitare nuove modalità sostenibili e efficaci per il lavoro, lo studio, lo svago. Il nostro Paese è ai primi posti per il numero di cellulari pro-capite al mondo, eppure, in Italia il digital divide c’era prima del Covid e c’è ancora. È necessario un cambio di mindset nel modo di affrontare le situazioni di quotidiana emergenza. A volte abbiamo strumenti più che adeguati ma non sappiamo come usarli.   Il 36,7% dei docenti intervistati per un sondaggio condotto nell'ambito del progetto formativo Luiss Business School "Con la Scuola" ha confessato che la pandemia e la didattica a distanza hanno reso più difficile il coinvolgimento dei ragazzi. Cosa è successo?  Il feedback è un regalo prezioso, che va ascoltato e agito. Col corpo, con lo sguardo e le parole i partecipanti ci parlano di come sta andando. Se non sono coinvolti, c’è qualcosa che non va. Di sicuro, tre ore continuative di lezione frontale, senza lavori di gruppo e non guidati da un coinvolgente progetto di ricerca non funzionano. Ora i partecipanti possono spegnere le videocamere e rendere esplicito quello che prima era solo uno spegnimento del loro livello di attenzione. Il digitale esaspera e rende visibile ciò che non funziona e ciò che non funzionava.   Secondo il Rapporto Unicef The Future We Want, più di 6 studenti su 10 hanno dichiarato che la digitalizzazione ha creato stress nello studio. Progettare un modo più efficace di fare formazione attraverso il digitale può migliorare questa situazione?   Sì, penso che la questione sia insita nel sistema scolastico così come è strutturato in Italia. Lo stress era già alto anche nel rapporto OCSE del 2016, dove gli studenti italiani erano tra i più stressati e i meno performanti nelle classifiche mondiali. Semplicemente traslare il tema in ambienti digitali acuisce il problema, lo sposta e non lo risolve. Progettare un modo più efficace di fare formazione attraverso il digitale è una opportunità per rivedere il nostro approccio e migliorare questa situazione con un modello sostenibile e efficace per il nostro sistema scuola. Il digitale sfida la dimensione del “controllo” sulle dinamiche di classe tradizionale. Per questo nel nostro corso abbiamo inserito moduli dedicati all’allenamento di quelle soft skills necessarie per chi gestisce le aule reali e virtuali, per aiutare a gestire l’ambiguo, lo stress, allenare la resilienza e gestire inevitabili dinamiche conflittuali. Il digitale è una opportunità fantastica per liberarsi finalmente di tante cose che non andavano bene e recuperare quelle dimensioni che invece funzionavano e dar loro più spazio, accelerarle come solo il digitale sa fare, penso a: la socialità, l’interazione, la ricerca.   Quali soluzioni offre il Digital Teaching for Learning per riavvicinare apprendenti e formatori?   Nel nostro corso di Digital Teaching for Learning stimoliamo le buone pratiche di progettazione in contesti sincroni e asincroni attraverso la condivisione tra esperti guidata da “domande potenti”: Come uso il tempo? Come strutturo i contenuti per evitare il sovraccarico cognitivo? Come gestisco le pause e il ritmo? Come attivo i partecipanti sulla ricerca del materiale didattico? Come facilito gli apprendenti nei lavori di gruppo? Come li alleno a gestire la socialità per finalità educative? Come uso le piattaforme digitali a vantaggio del processo di insegnamento e apprendimento? Come valuto? Per rispondere insieme a queste domande abbiamo pensato di coinvolgere i partecipanti in qualità di esperti nella loro pratica professionale, invitandoli a condividere attivamente le loro esperienze. Vogliamo confrontarci su come applicare efficaci modelli pratico/teorici di integrazione didattica con le piattaforme ICT. Offriremo occasioni di sperimentazione con strumenti pratico/teorici di facilitazione di dinamiche di apprendimento autonomo e esperienziale, in presenza e a distanza. Applicheremo tecniche di debrief nella condivisione tra pari nei Teaching Lab. Ci confronteremo su tematiche e sfide di grande attualità̀ nei contesti organizzativi, legate all’evoluzione della tecnologia e alla trasformazione digitale. Svilupperemo un nuovo approccio alla progettazione didattica in contesti blended di insegnamento e apprendimento digitali, in presenza e a distanza, creando un network di professionisti nel mondo dell’innovazione nel campo della formazione.  Durante la pandemia i consumi di contenuti digitali sono aumentati. Secondo una ricerca targata McKinsey il 92% degli intervistati continuerà ad acquistare intrattenimento e altri contenuti online: quali opportunità per le aziende?   La pandemia ha esasperato questi trend nella fruizione, che possono avere delle implicazioni su alcuni modelli di business, nel mondo dell’education, ad esempio. Per questo le opportunità di business sono molteplici. In primo luogo, si potrebbe andare a definire la strategia dei contenuti proprietari e di terze parti su più piattaforme in modo sinergico, guardando sia ciò che viene pubblicato gratuitamente sulle piattaforme più usate sia creando partnership efficaci con chi crea contenuti per lavoro. Poi bisognerebbe annusare i nuovi trend come video, podcast e infografiche e chiedersi come pubblicare MOOC tenendo conto che l'utente è abituato alla qualità di piattaforme e di contenuti come Amazon e Netflix. Ma per non restare irretiti nei falsi miti dell’edutainment, la domanda guida dovrebbe essere «ma dove è il valore aggiunto per la formazione?».  Che risposta si è data?  Secondo me si dovrebbe guardare alla qualità dell’esperienza, della socialità che si costruisce attorno ai contenuti, al ruolo di supporto del formatore che diviene facilitatore di un percorso di apprendimento attraverso uno storytelling innovativo. Si dovrebbero avere in mente anche le piattaforme su cui si appoggeranno, contenuti e esperienze. Questi aspetti di facilitazione, design e innovazione sono i pilastri del programma Digital Teaching for Learning , corso di metodologia e-learning concepito anche per quelle figure in azienda che aiutano la formazione aziendale a traghettare verso nuove modalità e piattaforme digitali.   A quali figure aziendali si rivolge questo aspetto del Digital Teaching for Learning?  Abbiamo pensato a quei manager e professionisti che operano nell’ambito della formazione, progettazione, sviluppo di nuovi programmi e modalità di erogazione; manager e professionisti del settore risorse umane e HR, Learning Development, Learning Design, Corporate Academies. Soprattutto per loro abbiamo previsto momenti di confronto con esperti sui trend della formazione aziendale negli ultimi venti anni e con imprenditori innovativi su piattaforme social per la creazione di efficaci accademie digitali.   Chi è il Facilitatore di Cambiamento? Perché serve alle aziende oggi più che mai?   Nell’insegnamento di qualsiasi disciplina si è al servizio del processo di apprendimento e dello studente. La sfida è quella di diventare facilitatori. In contesti innovativi e trasformativi, saremo più spesso impegnati come facilitatori di cambiamento, piuttosto che come esperti di materia o fornitori di contenuti. Come dicono Marshall Goldsmith, Alan Mulally e Sam Shriver "In azienda, facilitare diviene un atto quotidiano di leadership". Per innovare, le aziende possono facilitare la creazione di ambienti di lavoro psicologicamente sicuri dove poter rischiare e fare in modo che le persone che identificano i problemi, si sentano libere di metterli sul tavolo in modo da poter poi trovare soluzioni. L’innovazione necessita di un leader che faciliti dinamiche collaborative in contesti psicologicamente sicuri, dove si impara dagli errori e si trovano soluzioni più velocemente con un approccio iterativo e creativo.   Investire in formazione significa pensare a sé stessi come a un asset: perché?   Soprattutto in momenti di crisi come questi la formazione si rivela una opportunità, figlia di un processo di valutazione delle risorse disponibili per risolvere nel migliore dei modi uno o più problemi. Allora, diventiamo noi stessi risorsa, bene prezioso, capitale umano, soggetto agente, patrimonio da investire in nuove attività e progetti.   Programmi vs Contenuti: come si rimette la conoscenza al centro del processo di apprendimento?   Il 16 novembre 2012 è stato pubblicato il decreto n. 254, “Regolamento recante indicazioni nazionali per il curricolo della scuola dell’infanzia e del primo ciclo d’istruzione, a norma dell’articolo 1, comma 4, del decreto del Presidente della Repubblica 20 marzo 2009, n. 89”, firmato dal Ministro Francesco Profumo. Nel testo si abolisce la parola "programmi" e si legge: «il bisogno di conoscenze degli studenti non si soddisfa con il semplice accumulo di tante informazioni in vari campi, ma solo con il pieno dominio dei singoli ambiti disciplinari e, contemporaneamente, con l’elaborazione delle loro molteplici connessioni. È quindi decisiva una nuova alleanza fra scienza, storia, discipline umanistiche, arti e tecnologia, in grado di delineare la prospettiva di un nuovo umanesimo».  Come il digitale ha cambiato il mondo dell’insegnamento e dell’apprendimento?   Più che di digitale, io parlerei già di post-digitale. La nostra è un'epoca in cui il "digitale" è diventato un attributo privo di significato perché quasi tutti i media sono elettronici e si basano sull'elaborazione delle informazioni digitali. È solo una piattaforma che abilita, accelera, migliora, personalizza, socializza. Quello che le tecnologie possono fare per noi nell'istruzione è riportare lo studente al centro del "viaggio di apprendimento", rafforzando nel contempo la centralità dei nostri allievi nella progettazione dell'apprendimento e nella valutazione dei programmi.   Traiettorie evolutive della formazione: dove va la formazione?   Alcuni trend ce li portiamo dietro già dai tempi pre-pandemici: le pratiche Data-Driven, la personalizzazione dell'esperienza di apprendimento, il focus sulle soft skill, la digitalizzazione della didattica frontale, l'apprendimento attraverso piattaforme Social e Mobile, il Microlearning e il video. Il post pandemia ne ha confermati alcuni e fatti emergere altri, come il ribilanciamento dei modelli di apprendimento, l'umanizzazione dell'online learning, l'utilizzo delle tecnologie di AI e chatbot per seguire il discente, il tracciamento e l'analisi dei dati, i nuovi trend di contenuti immersivi, l'enfasi sulle materie STEM, l'approccio esperienziale. Inoltre, si impone una maggiore enfasi sui programmi Train-The-Trainer di formazione dei formatori, aiutandoli nella transizione a nuove modalità di design e erogazione. Ed è qui che Luiss Business School, con il Flex in Digital Teaching for Learning, può fare la differenza.   SCOPRI DIGITAL TEACHING FOR LEARNING 26/07/2021

23 Luglio 2021

3PItalia vince in Rti la gara da 36 milioni per digitalizzare le Pa

Lo annuncia l'amministratore delegato Carlo Ghezzi. La società avrà il ruolo di dare consulenza e supportare la gestione dei progetti Entrare nella stessa stanza della Pa per fornire consulenza e supporto nella gestione dei progetti di digitalizzazione. È quanto farà 3PItalia che si è aggiudicata, in aggregazione con la capofila e mandataria Bip, società di consulenza fondata da Nino Lo Bianco, una gara Consip da 36 milioni di euro per il supporto alla digitalizzazione delle Pa locali e centrali. Lo annuncia a DigitEconomy.24 (report del Sole 24 Ore Radiocor e della Luiss Business School) Carlo Ghezzi, amministratore delegato della società fondata a inizio 2020 da Linkem e Easygov. «Sarà un'operazione almeno a tre attori: la Pa, la Rti di cui fa parte 3P Italia e i fornitori di soluzioni di tecnologie; 3P avrà il ruolo di supportare l'organizzazione, la pianificazione, il controllo e il coordinamento generale dei programmi di digitalizzazione dei prossimi anni, affiancando le pa con un ruolo di advisor terzo nel governo e nella gestione delle iniziative». Il contratto dura 24-36 mesi, ma la durata dei singoli servizi, spiega Ghezzi, «si allinea alla durata dei singoli progetti alla quale si applicheranno». La commessa è divisa in tre lotti, 3PItalia e Bip sono presenti in tutti mentre gli altri otto partner sono spalmati sulle vare parti. «L'accordo quadro offre alla pa la la possibilità di essere affiancate e supportata» La gara riguarda un accordo quadro e, per la prima volta, spiega Ghezzi, «offre alle pubbliche amministrazioni la possibilità di essere affiancate e supportate per realizzare una serie di interventi di digitalizzazione delle Pa». Per Ghezzi «si rafforza un concetto di partenariato pubblico e privato che è il fattore distintivo della nostra azienda. È un'occasione unica per dare slancio all'attività della pubblica amministrazione nella realizzazione di una serie di servizi e investimenti in ambito digitale». L'accordo quadro potrebbe essere letto anche in chiave Pnrr, visto che poi concretamente sarà proprio l'attuazione dei progetti finanziati con risorse Ue il vero banco di prova per le amministrazioni italiane. «Si tratta di un'opportunità anche in vista della gestione del Pnrr» «Sicuramente ci aspettiamo che questo accordo possa essere un'opportunità anche per le pa che dovranno gestire il Pnrr. Le amministrazioni beneficiarie potranno ingaggiare i nostri servizi proprio per monitorare e ottimizzare la spesa e gli interventi previsti dal piano», chiarisce Ghezzi. La nuova commessa costituirà una parte importante del giro d'affari di 3P Italia che, nel suo primo anno di vita, nel 2020, ha realizzato 500mila euro di ricavi, nel 2021 ha totalizzato 1 milione, nel 2022 punta al raddoppio, per arrivare al 2023 con 4 milioni di ricavi. «La nostra quota nella commessa della gara Consip è variabile rispetto ai 36 milioni ed è legata ai risultati e alle pa che sapremo coinvolgere. Ora parte una fase in cui potremmo fare promozione del nuovo strumento». «Con le nuove concessioni assumeremo, magari personale con già un rapporto con le Pa» 3P nasce con un project financing da 5 milioni di euro con il comune di Brescia per 5 anni. A fine dicembre è arrivata un'altra concessione per 18 anni in project financing da 18 milioni di euro per la provincia di Lecco. Al momento la società ha 15 dipendenti, ma con l'arrivo delle nuove commesse, quest'anno potrebbe assumere 10 persone, per arrivare nel 2022 a 40 dipendenti. «Laddove attiveremo le concessioni – spiega Ghezzi - la logica è di assumere in maniera correlata, magari personale che ha già un rapporto con le pa locali». Nel futuro prossimo la società guarda all' intelligenza artificiale e alla blockchain per agevolare la vita delle pubbliche amministrazioni. «Sono allo studio dei servizi che venderemo nelle concessioni. Ad esempio, stiamo studiando come digitalizzare, attraverso smartphone e blockchain, la concessione dei permessi». Infine, l'azienda si propone «come broker di trasferimento delle buone pratiche. Crediamo molto – conclude Ghezzi – nelle community di Pa che si mettono assieme per risolvere i problemi». SFOGLIA IL REPORT COMPLETO 23/7/2021

23 Luglio 2021

Expert.ai: «Puntiamo sugli Usa e sviluppi con la Pa, 2021 in recupero»

L'AD Stefano Spaggiari fa il punto sulle prospettive della società che usa l'intelligenza artificiale per la comprensione e l'analisi dei testi Con l’intelligenza artificiale «non vedo rischi per l’occupazione, le nostre applicazioni forniscono una sorta di esoscheletro cognitivo, ma ai comandi ci sono sempre gli uomini. Ancora oggi qualunque pezzo di Ai è frutto di una programmazione, sotto c’è comunque una scelta fatta da un uomo». Stefano Spaggiari è tra i fondatori, oggi presidente, di expert.ai (prima Expert System), una società pioniera nell’utilizzo dei sistemi di intelligenza artificiale per la comprensione del linguaggio. Avviata negli anni ’90 con i primi correttori dell’italiano venduti al gigante Microsoft, nel febbraio del 2014 si quota in Borsa per crescere. Nell’azionariato, oltre ai soci fondatori, che hanno circa il 18-19%, c’è dal 2019 con circa il 9%, la società Ergo, costituita da un pool di investitori privati tra i quali Claudio Costamagna, Diego Piacentini e Francesco Caio. expert.ai punta attualmente sull’ampliamento del lavoro con la Pa, che potrà sfruttare le risorse del Pnrr, e a crescere negli Usa, dove ha già una sede vicino Washington: «A settembre - dice Spaggiari a DigitEconomy.24, report del Sole 24 Ore Radiocor e della Luiss Business School – apriremo la sede a Boston». Intanto, alla luce del piano industriale approvato l’anno scorso e dopo un 2020 funestato dal Covid (chiuso con ricavi in calo a 30,6 milioni ed ebitda negativo per 1,9 milioni rispetto ai 5,5 milioni dell’anno precedente), «stiamo andando - annuncia il presidente - nella direzione giusta, siamo in una fase di recupero. Quest’anno dovrebbe essere un anno auspicabilmente migliore». Oggi l’intelligenza artificiale è improvvisamente, spinta anche dall’effetto pandemia, diventata un must per le aziende. Negli anni ’90, quando l’azienda nasce nel classico garage ad opera di Spaggiari con i compagni di università Paolo Lombardi e Marco Varone, la situazione è ben diversa e, nonostante le attese altissime sui primi sistemi di intelligenza artificiale, non ci sono, su larga scala, computer con una capacità tale da far girare gli algoritmi. «Sviluppammo una tecnologia di correttore grammaticale della lingua italiana e provammo a venderlo a Microsoft. A quel tempo il colosso statunitense stava facendo una selezione per adottare i correttori delle lingue più importanti. Noi corremmo contro colossi dell’epoca e vincemmo». Un altro step fondamentale arriva con la creazione di una vera e propria piattaforma di intelligenza artificiale la cui ambizione, spiega Spaggiari, era quella di simulare le capacità cognitive umane nel momento in cui leggiamo un testo. Attualmente il gruppo, che ha tra i clienti media Associated Press, Dow Jones-Wall Street Journal e anche la testata Il Sole 24 Ore, elabora due grandi gruppi di applicazioni: l’information intelligence, cioè la raccolta e l’analisti di grandi quantitativi di informazione, e l’automazione dei processi. «Dietro grandi aziende di servizi, a partire dalle assicurazioni, ci sono delle operazioni – prosegue Spaggiari – attraverso le quali vengono elaborate quantità incredibili di documenti. Ad esempio, la gestione dei sinistri inizia con un plico di documenti, in genere da 50-70 pagine. Finora le persone li leggevano e cominciavano a istruire la pratica, estrapolando nomi, luoghi, geografie, dinamiche, cercando di capire le conseguenze». Grazie all’Ai «abbiamo fatto il training al sistema perché fosse in grado di supportare in modo significativo chi fa questo lavoro. Prima servivano 58 minuti per fare l’analisi di un plico, ora ne bastano 5. Lasciando al momento all’intelligenza umana la parte qualitativa più importante, e affrancando tutto il lavoro noioso e lungo di lettura ed estrazione dei dati». La macchina che lavora al posto dell’uomo? «Siamo per fortuna lontani – commenta Spaggiari – dalla prospettiva dell’intelligenza artificiale che ruba il posto all’uomo». «Non vedo – chiarisce ancora - rischi per l’occupazione, vedo un efficientamento per cui le persone vengono impiegate in attività intellettualmente più stimolanti. D’altronde le persone intelligenti sono merce rara, se riusciamo ad affrancarle dalle attività lunghe e noiose le possiamo sfruttare per le loro qualità migliori, e questo è nell’interesse di tutti». Con il successo dell’intelligenza artificiale e la rinnovata competitività nel mercato l’azienda, che dà lavoro a circa 300 persone nel mondo, si è focalizzata «sullo sviluppo di piattaforme e soluzioni, ci siamo trasformati in una società di fornitura di servizi di Ai per clienti finali o terze parti che possono sviluppare le proprie applicazioni».  L’ultima svolta, a livello manageriale, è arrivata con l’arrivo in azienda dello statunitense Walt Mayo che ha assunto il ruolo di amministratore delegato il 24 febbraio 2020 e che sarà fondamentale nell’espansione negli Usa, uno dei perni del piano industriale quadriennale presentato dall’azienda l’anno scorso per il 2020-24 e incentrato proprio sulla crescita e lo sviluppo del gruppo a livello internazionale, con particolare riferimento agli Stati Uniti. La nuova strategia punta a realizzare nel 2024 100 milioni di ricavi e 22 milioni di ebitda. Il 22 giugno scorso, intanto, expert.ai ha lanciato la nuova piattaforma ibrida basata sulla comprensione del linguaggio naturale. Accessibile via cloud, la piattaforma di expert.ai, trasformando qualsiasi documento basato sul linguaggio in dati strutturati, consente di rendere più veloce l’acquisizione delle informazioni strategiche e di accrescere la conoscenza in tutti i processi e le attività che coinvolgono l’uso di informazioni espresse in linguaggio naturale. Altre frontiere si aprono poi con il Pnrr. «Stiamo lavorando soprattutto sulla Pa, dove prima eravamo presenti solo nel settore della sicurezza e della difesa poiché non c’erano le risorse se non per l’ordinaria amministrazione.  Stiamo, quindi, potenziando la divisione Pa per andare oltre la nicchia che ci eravamo ritagliati.  Ci sarebbero – chiosa Spaggiari - tonnellate di documenti che potrebbero essere processati quantomeno in modo semi automatico». SFOGLIA IL REPORT COMPLETO 23/7/2021

23 Luglio 2021

«Solo investendo in nuove tecnologie l’Europa preserverà l’autonomia strategica»

L'intervento di Alessandro Profumo, Amministratore delegato di Leonardo, su DigitEconomy.24, report del Sole 24 Ore Radiocor e della Luiss Business School Il digitale ha un impatto trasformativo su ogni aspetto dell'industria e della società contemporanea. Si tratta di una vera e propria rivoluzione, al centro della quale ci sono i Big Data: siamo circondati da una quantità crescente di nuove informazioni, per poter raccogliere e gestire le quali sono ormai necessari sistemi avanzati capaci di integrare l'Hpc (High performance computing) per il supercalcolo con soluzioni di Intelligenza Artificiale e Cloud Computing. «Le infrastrutture digitali richiedono risorse e competenze» Le nuove infrastrutture del digitale, basate sulle tecnologie dell'Hpc, richiedono però un grande investimento in termini di risorse e, soprattutto, competenze specializzate. Il ciclo di obsolescenza delle tecnologie digitali è, in media, di poco più di cinque anni: non è più pensabile poter gestire l'innovazione con la velocità e con i metodi del ventesimo secolo. Oggi sono richieste figure professionali di alto profilo, capaci di un costante aggiornamento on the job e di adattarsi alle trasformazioni dell'industria digitale. Investire nelle nuove tecnologie, oltretutto, non è solo un modo per creare occupazione qualificata, ma è cruciale per contribuire alla sovranità tecnologica e alla competitività dell'Italia e dell'Europa. La nuova frontiera della digitalizzazione è il digital twin Oggi la frontiera della digitalizzazione dell'industria è rappresentata dal digital twin, il gemello digitale, e sono molte le imprese che si stanno attrezzando per questa tecnologia rivoluzionaria: nel settore automobilistico, Tesla ha investito centinaia di milioni di dollari in un nuovo Hpc - già tra i primi cinque più potenti al mondo – per sfruttare il digital twin a supporto delle tecnologie per la guida autonoma. L'azienda di Palo Alto utilizza i big data per costruire simulazioni virtuali, in modo da addestrare le reti neurali che alimentano i suoi sistemi di pilotaggio automatico. Ferrari e Dallara, cuore della Motor Valley Italiana, applicano il digital twin per il design e la progettazione dei propri veicoli. Anche nell'industria dell'aerospazio, della difesa e della sicurezza la digitalizzazione è l'elemento chiave sia nell'innovazione sia nella competitività. Il Dipartimento della Difesa statunitense, ad esempio, ha dichiarato che in futuro accetterà forniture solamente da quelle aziende in grado di garantire prodotti concepiti con un digital twin. I vantaggi derivanti dall'utilizzo di soluzioni digitali, del resto, sono indiscutibili: raccogliendo dati attraverso una sensoristica diffusa è possibile modellizzare i comportamenti di un gemello fisico, studiandone il comportamento in un ambiente virtuale capace di simulare i suoi comportamenti anche in situazioni estreme; ciò consente di operare in maniera predittiva, anticipando potenziali pericoli e imprevisti prima che avvengano nella realtà. Big data e algoritmi consentono di modificare eventuali anomali di un prodotto L'utilizzo combinato dei big data e di algoritmi dedicati, attraverso il digital twin, consente di intervenire durante tutte le fasi di progettazione di un prodotto per modificare eventuali anomalie, in maniera veloce e sicura, guidandone lo sviluppo passo dopo passo sulla base di parametri in continua evoluzione, mentre il grado di complessità può aumentare ulteriormente nel momento in cui diversi modelli digitali interagiscono tra loro. Tutto questo ha ricadute positive a tutti i livelli del processo industriale: i costi di sviluppo diminuiscono mentre aumenta la sicurezza, soprattutto in fase di testing; un uso più efficiente di materiali e carburante aumenta la sostenibilità d'impresa e la manutenzione predittiva garantisce una riduzione dei fermi macchina. Digital Twin al centro dell'approccio di Leonardo Il digital twin è al centro dell'approccio con cui Leonardo si sta preparando alle sfide tecnologiche di domani, aprendo a nuove opportunità applicative non soltanto nell'ambito dell'AD&S, ma nella società nel suo complesso. L'integrazione tra il digitale e le infrastrutture spaziali, in particolare, offre nuove possibilità: la rete integrata di satelliti permette la raccolta di dati che – grazie alla loro rielaborazione attraverso l'Intelligenza Artificiale – consentono di formulare analisi predittive molto puntuali e utili per numerose applicazioni: dal monitoraggio delle infrastrutture critiche (centrali e impianti industriali, reti energetiche e di trasporto) all'ottimizzazione delle attività agricole, dal controllo del traffico aereo e automobilistico fino alla prevenzione e gestione delle emergenze, come incendi, fenomeni metereologici estremi e crisi sanitarie localizzate. La Commissione Europea ha lanciato l'ambizioso progetto Destination Earth - a supporto della sua agenda verde e digitale - per creare un digital twin integrale del nostro pianeta, in modo da studiare l'evoluzione climatica della terra e gli effetti dell'antropizzazione sull'ambiente. Solo investendo nelle nuove tecnologie l'Europa preserverà l'autonomia strategicaUna strategia strutturata per una transizione digitale rapida e sicura rappresenta un elemento essenziale per favorire la competitività delle nostre aziende, a livello nazionale ed internazionale, e garantire in questo modo un presidio efficace della sovranità tecnologica europea. Solo investendo nelle nuove tecnologie strategiche il continente potrà preservare la propria autonomia strategica, per fronteggiare le crisi e le minacce di un mondo sempre più incerto. La transizione digitale rappresenta la via maestra da cui passa il rilancio del Paese. Per assicurarsi un futuro di sviluppo e crescita, l'Italia dovrà – e siamo sicuri saprà – imboccarla con decisione: ne va del futuro delle nuove generazioni, principali eredi del mondo digitale che sapremo costruire insieme a loro.   *Amministratore Delegato di Leonardo SFOGLIA IL REPORT COMPLETO 23/7/2021