Digital Transformation
Digital Transformation
Digital Transformation
Digital Transformation

08 Ottobre 2021

Equinix: «Il progetto sul cloud non può restare legato solo ai confini nazionali»

Il punto con il Managing Director per l'Italia del gruppo USA, Emmanuel Becker   Equinix guarda con interesse al progetto di cloud di Stato presentato dal ministro dell'Innovazione, Vittorio Colao, a inizio settembre. Un piano per cui il gruppo USA dei data center può fornire supporto alle aziende che hanno già avanzato le loro offerte, e nell'interazione tra le Pa. Tuttavia, avverte Emmanuel Becker, Managing Director per l'Italia, occorre garantire anche lo scambio di dati con l'estero, pena la riuscita del piano.  «Facciamo già parte indirettamente del progetto nazionale» «Siamo - dice Becker - molto interessati al progetto, anche se in realtà vi facciamo parte già indirettamente. Ci sono infatti diverse cordate che si sono proposte, all'interno delle quali si notano grandi attori nazionali o internazionali. Attori che sono anche nostri partner, clienti, società con cui già lavoriamo. La piattaforma di Equinix dà, infatti, accesso al mondo dei service provider e, qualunque sia il service provider, qualunque sia il cliente, coloro che vi interagiscono possono darsi accesso l'uno l'altro. Indirettamente, dunque, Equinix fa parte di questi progetti. Ci dovranno essere, infatti, dei meccanismi che garantiscono questi scambi, nel perimetro del cloud nazionale». Hanno annunciato di aver presentato la loro proposta al ministero dell'Innovazione le cordate Tim-Cdp -Sogei-Leonardo e Almaviva-Aruba. «Occorre garantire l'interconnessione tra le Pa» Ma c'è di più. Equinix si candida a un ruolo attivo nel progetto di cloud nazionale non solo dal lato della necessità della piattaforma, ma anche sul versante dell'uso di questi dati. «Le Pa, infatti, avranno la possibilità di interagire e di avere del computing legato al cloud nazionale. Significa garantire l'interconnessione, in un contesto di pubbliche amministrazioni che dialogano tra di loro al fine di fluidificare i processi, attualmente un po' lenti. Ed Equinix è un attore molto importante nelle interconnessioni in Italia, permette a molti attori locali di scambiarsi più velocemente flussi di dati». «Il collegamento dei dati sia anche a livello internazionale» In terzo luogo, avverte Becker, «il cloud nazionale non può restare legato solo ai confini dello Stato. L' Italia, infatti, è un Paese molto importante nel mondo, ha ad esempio ambasciate che sono all'estero, oppure aziende statali o parastatali che hanno sistemi globali, rapporti con la Commissione europea. Occorre, dunque, avere un collegamento dei dati anche a livello internazionale. Se infatti il cloud nazionale non consentirà questa prerogativa, il progetto non avrà successo e non permetterà alle aziende, alle ambasciate, o altri enti di lavorare bene a livello globale. Attori come Equinix possono consentire tutto ciò, dando garanzia sui flussi di dati». Questo tipo di lavoro è già svolto dalla società con clienti presenti in Italia, Cina, Giappone che hanno bisogno di avere i propri dati collegati tra loro. Becker avverte, infine, sui rischi di un cloud che non preveda anche uno scambio internazionale. «Il cloud nazionale dovrà dare aperture prima poi al resto del mondo. Un progetto solo a livello locale avrà i suoi limiti, e molto rapidamente gli utenti trovano una maniera di andare oltre. Meglio, dunque, prevedere questa apertura già nel disegno originario del progetto, piuttosto che rendersi conto – conclude il manager - solo successivamente di questo bisogno». SFOGLIA IL REPORT COMPLETO 8/10/2021

08 Ottobre 2021

Retelit pronta a contribuire al cloud di Stato una volta svelate le regole

L'intervista all'Amministratore Delegato della società di tlc, Federico Protto Anche Retelit, gruppo di tlc e Ict che possiede una rete in fibra e svariati data center, vuole entrare nella partita del cloud nazionale, la "nuvola di Stato" in cui saranno trasferiti i dati della Pa. La società è pronta a collaborare quando saranno chiare, spiega Federico Protto a DigitEconomy.24 (report del Sole 24 Ore Radiocor e della Luiss Business School) le regole del gioco. Quanto alle modalità per configurare il polo nazionale di Stato, il manager suggerisce di non utilizzare il modello di gara tradizionale, ma fare in modo di usare tutte le eccellenze in campo. A tenere poi le fila rispetto ai vari aspetti del cloud, da quello tecnologico all'interoperabilità dei dati tra le varie Pa, servirebbe un ente, magari interno del ministero dell'Innovazione, che supervisioni. «Una volta che saranno svelate le regole – chiosa Protto – vogliamo dare il nostro contributo alla configurazione del nuovo polo». Di recente cordate come Almaviva-Aruba e Tim-Sogei-Cdp-Leonardo si sono fatte avanti per il cosiddetto ‘cloud' di Stato, qual è la vostra posizione? La nostra posizione si basa su quanto finora ha dichiarato il ministro dell'Innovazione e della trasformazione digitale, Vittorio Colao, e si baserà sulle regole per la partecipazione che a oggi non sono state del tutto svelate. Questi sono i due punti di partenza fondamentali. In questo momento stiamo osservando. Ma essendo soggetti rilevanti nel settore del cloud, abbiamo comunque delle idee, delle proposte. Quale ruolo può giocare Retelit? Innanzitutto, bisogna chiarire che il tema del polo strategico nazionale si può declinare lungo tre dimensioni. La prima è quella tecnologica, ovvero quale tecnologia scegliere, ad esempio tra quelle di Google, Microsoft o altre in campo. Noi, dal canto nostro, abbiamo i nostri data center, le nostre tecnologie, molto distribuite sul territorio. Poi c'è la questione dei dati, la quale a sua volta può essere divisa in due aree: la sicurezza e il trattamento del dato. Anche su questo fronte abbiamo le competenze per poter contribuire al progetto nazionale. C'è, a questo proposito, un aspetto, a cavallo tra la tecnologia e la politica, che è quello della condivisione dei dati tra le pubbliche amministrazioni. È un tema molto importante. Innanzitutto, infatti, occorrono regole per implementare il polo strategico nazionale, ma anche regole per un accordo tra le pa, in modo tale che, ad esempio, quando presentiamo una pratica, non si debba rimettere tutti i dati ogni volta che si dialoga con un'amministrazione diversa. Il terzo tema, ma non in ordine di importanza, è quello delle applicazioni. Retelit lavora con un migliaio di enti, soprattutto della pa locale, ai quali sta offrendo servizi utili e importanti per la trasformazione digitale. In conclusione, il processo per la realizzazione del cloud nazionale è molto più ampio rispetto agli slogan circolati. Che cosa proponete allora per una migliore gestione dei vari ambiti? Riteniamo che per queste aree e sotto-aree ci debbano essere regole di partecipazione e ci debba essere un ente che vigili sull'applicazione delle dette regole; l'orchestratore della trasformazione, cioè, non potrà che essere un ente, deputato dalla Pa, alla cura dei singoli aspetti. L'obiettivo è fare in modo che il polo strategico nazionale sia lo strumento per mettere assieme, nell'ambito Ict, le eccellenze italiane nelle varie aree. E mi riferisco ai temi delle applicazioni, dell'interoperabilità, della condivisione dei dati tra le pa. Che tipo di ente potrebbe prevedersi? Un ente, magari in seno al ministero dell'Innovazione, che permetta di coordinare e mettere a valore tutte le nostre eccellenze, avendo, e lo dico da tecnologo, chiaro il mandato non tanto di carattere tecnologico ma politico. Bisognerebbe pensare anche a curare lo scambio dei dati con l'estero, come ad esempio con la Ue? A nostro parere la creazione di standard europei dovrà essere la base per il cloud sovranazionale all'interno dell'Unione. Noi, come Retelit, abbiamo dimostrato nei fatti che crediamo in questo approccio, visto che abbiamo aderito a due progetti comunitari, di carattere profondamente diverso, Gaia X e la Cloud Alliance voluta dal commissario europeo per il Mercato interno e i servizi, Thierry Breton. La prima è di carattere privatistico; potrebbe lavorare, e sta lavorando, su standard di interoperabilità tra tutti gli attori che agiscono in Europa. La seconda rappresenta un coordinamento degli investimenti tra tutti i Paesi comunitari. Fanno parte di questo progetto 27 aziende, compresa Retelit, con l'obiettivo di organizzare iniziative volte a favorire l'infrastrutturazione soprattutto a livello europeo. In conclusione, come suggerisce di procedere per la creazione del polo strategico nazionale? Riteniamo che l'approccio debba essere un po' diverso rispetto a quello tradizionale che prevede vari soggetti che partecipano e uno che vince. Noi auspichiamo che ci sia la possibilità in determinati ambiti di utilizzare tutte le eccellenze. E, una volta che saranno svelate le regole, vogliamo dare il nostro contributo sulla configurazione del nuovo polo. SFOGLIA IL REPORT COMPLETO 8/10/2021 

24 Settembre 2021

Copasir: «Su dati e rete a banda larga va definita la strategia nazionale»

Parla il presidente Adolfo Urso a DigitEconomy.24 di Luiss Business School e Il Sole 24 Ore. «Nelle prossime settimane audiremo Baldoni, il direttore dell'Agenzia per la cybersicurezza» Sulla cybersicurezza, uno dei grandi problemi che si porranno a livello globale, «dobbiamo fare in fretta e fare bene». È la posizione di Adolfo Urso, presidente del Copasir, alla luce dell'evoluzione delle tecnologie e dell'esigenza di tutela dei dati dagli attacchi informatici. Proprio nel campo dei dati, «si ridisegneranno gli assetti globali». Il cloud nazionale, la strategia sulla rete a banda larga, «che va definita», le interconnessioni attraverso i cavi marittimi nel Mediterraneo, lo sviluppo tecnologico e produttivo sui chip e sui semiconduttori, le batterie elettriche e ovviamente sulla intelligenza artificiale «sono – sottolinea Urso con DigitEconomy.24, report del Sole 24 Ore e della Luiss Business School - elementi importanti di quella che deve essere una chiara e definita strategia nazionale, condivisa con i nostri partner europei e atlantici». E proprio sul progetto di cloud nazionale e sui problemi di sicurezza che si profilano, il Copasir, annuncia il presidente, audirà il neodirettore dell'Agenzia per la Cybersicurezza, Roberto Baldoni. Intanto, in occasione dell'assemblea di Confindustria, lo stesso presidente del Consiglio, Mario Draghi, ha ribadito la strategicità del progetto nazioanle per il cloud, affermando che si aspettano le offerte (la scadenza attesa è entro fine mese, ndr) e il contributo dei privati sarà importante.  Ad agosto è stata approvata la legge sulla cybersicurezza che prevede anche la nascita dell'Agenzia ad hoc. Si può dire che l'Italia ha oggi uno scudo sufficiente per proteggersi dagli attacchi? L' agenzia sta muovendo i primi passi e mi auguro che possa presto essere in piena attività. La sua realizzazione giunge con qualche anno di ritardo rispetto ad altri Paesi europei, anche se nel frattempo, grazie proprio alla attività, che potremmo definire di supplenza, della intelligence e all'impulso del Copasir sono stati realizzati altri tasselli importanti, per esempio il perimetro di sicurezza nazionale. Il ministro dell'Innovazione tecnologica, Vittorio Colao, qualche settimana fa evidenziava come il 95% della Pa non fosse ancora in condizione di proteggere i propri dati, come è emerso in modo eclatante nel caso dell'hackeraggio che ha colpito la Regione Lazio, così come ospedali e aziende strategiche. E i dati sull'aumento esponenziale dei crimini informatici purtroppo lo dimostrano. Dobbiamo fare in fretta e fare bene, consapevoli dei rischi e delle potenzialità. Questo è il campo in cui si ridisegnano i nuovi assetti globali, la competitività dell'intero sistema Paese, non solo la protezione dei nostri dati che ne è il presupposto. Il cloud nazionale, la rete a banda larga e le interconnessioni attraverso i cavi marittimi nel Mediterraneo, ma anche lo sviluppo tecnologico e produttivo sui chip e sui semiconduttori, sulle batterie elettriche e ovviamente sulla intelligenza artificiale sono elementi importanti di quella che deve essere una chiara e definita strategia nazionale, condivisa con i nostri partner europei e atlantici. Nei piani del Governo c'è il lancio del cloud nazionale della Pa che conterrà anche vari dati sensibili. Sono previsti sistemi di crittografia che dovrebbero proteggere i dati, a seconda anche della loro tipologia. È un sistema sicuro? Avete in programma altre audizioni su questi temi? Nelle prossime settimane audiremo il direttore della nuova agenzia per valutarne lo stato di attuazione. Intanto auguro buon lavoro al professor Roberto Baldoni e alla sua vice Nunzia Ciardi, eccellenti professionalità. Sono importanti anche le modalità e la tempistica con cui verrà realizzato il Cloud nazionale, per avere assoluta garanzia sulla protezione dei nostri dati. Così come va definita la strategia sulla rete a banda larga. Nella partita del cloud entreranno probabilmente anche le big tech   in partnership con grandi gruppi nazionali che sono in procinto di fare offerte per il cloud nazionale. Qualcuno paventa però l'applicazione del Cloud Act che consente ai giudici Usa, in determinate situazioni, di richiedere dati anche se conservati in server fuori dagli States. È un pericolo per la sovranità italiana? Come si può risolvere? È l’argomento che anche il Copasir ha posto all'attenzione del Governo e credo sia ben presente in chi sta operando per la definizione degli attori e delle regole cui dovranno attenersi, anche in merito alla proprietà della tecnologia e dei dati. Sarebbe opportuno arrivare a un protocollo comune in Europa per tutelare la sovranità digitale europea? Non è solo una questione di regole ma anche, soprattutto in questo campo, di tecnologia e quindi di sistemi produttivi. Abbiano molto da fare insieme e certamente il Pnrr può aiutarci a sviluppare meglio le potenzialità europee per garantire una più efficace autonomia e quindi sovranità. Oggi dipendiamo da altri. Il suo predecessore, Raffaele Volpi, lamentava un'applicazione blanda del golden power, a tutela degli asset strategici. È un problema persistente? Occorrerebbe un maggiore tutela per asset come le reti di telecomunicazioni? La recente relazione al Parlamento sull'applicazione della golden power nel 2020 fornisce dati inequivocabili: il Governo ha esercitato i poteri di veto solo in 2 casi su 342 notifiche; in altri 42 ha posto condizioni di cui 24 hanno riguardato operazioni societarie e18 i contesti di fornitura relativi alla tecnologia 5G. Noto però un cambio di passo nel corso di quest'anno, mi sembra che ci sia più consapevolezza nella tutela degli asset strategici, non solo nel campo delle telecomunicazioni, in più contesti la possibilità di esercitare la golden power è stata evocata per scongiurare operazioni ostili con una efficace opera di preventiva moral suasion. Seguiamo con attenzione come nostro dovere. SFOGLIA IL REPORT COMPLETO 24/9/2021

24 Settembre 2021

«Per la sicurezza della ‘Nuvola di Stato’ bastano tutele e garanzie nei contratti»

La posizione di Massimiliano Masnada, partner di Hogan Lovells, che assiste importanti cloud computing provider americani e internazionali L'applicazione o meno del Cloud Act americano alle aziende che si occuperanno della cosiddetta "Nuvola di Stato" è uno dei nodi da risolvere in vista dell'avvio della strategia nazionale sul cloud.  L'obiettivo è impedire cioè che giganti come Google o Microsoft siano costretti dalla legge americana del 2018 ad alzare il velo, in alcuni casi eccezionali, sui dati conservati nei propri server. Contrariamente a chi ritiene che sia fondamentale un accordo diplomatico tra Italia e Usa (vedi il giurista Innocenzo Genna su DigitEconomy del 9 settembre), Massimiliano Masnada, partner responsabile del team di Privacy e Cybersecurity di Hogan Lovells in Italia, che assiste importanti cloud computing provider americani e internazionali, spiega che bastano tutele tecniche e garanzie nei contratti. «Ci sono innanzitutto - spiega Masnada a DigitEconomy.24 (report del Sole 24 Ore e della Luiss Business School - due ordini di problemi principali: bisogna garantire la sicurezza del cloud italiano e c'è l'esigenza di mettere al riparo i dati dei cittadini rispetto a una possibile ulteriore attività di trasmissione non autorizzata a soggetti terzi. Bisogna a questo punto chiedersi: è in grado il cloud italiano di garantire gli stessi elevati standard di sicurezza dei grandi provider internazionali?» Nel 2020 il costo degli attacchi è salito del 10% in Italia a 3 milioni di euro I dati sugli attacchi informatici, prosegue il legale, sono su questo fronte emblematici e mostrano l'importanza di difendere la sicurezza degli italiani. «Nel 2020, a livello mondiale, secondo Clusit, (l'associazione italiana per la sicurezza informatica) il costo degli attacchi è stato di 3mila miliardi di euro, il 12% in più rispetto all'anno precedente, con 160 attacchi al mese. In Italia il costo è stato di 3 milioni di euro, con un incremento del 10 per cento. Di recente c'è poi stato il caso emblematico della Regione Lazio dove, per aver lasciato un programma aperto, sono stati rubati i dati dei cittadini». Dal punto di vista della sicurezza, insomma, «chi garantisce maggiormente la tutela sono coloro che hanno acquisito un'enorme esperienza in questa attività. In pratica, non si può cercare l'eccellenza nel solo ambito territoriale italiano se questa eccellenza non è facilmente rintracciabile». Dare l'intera gestione del cloud a una multinazionale Usa può creare problemi La soluzione? «Dare l'intera gestione del cloud a una multinazionale americana può creare problemi sia giuridici sia politici. In tal senso l'intervento del ministro Colao al meeting di Cernobbio è stato chiarissimo. Occorre, invece, riservare la gestione a un grande soggetto nazionale, accompagnandola però con accordi di fornitura o di partnership con i grandi provider che possano mettere a disposizione del provider italiano la loro grande esperienza e capacità. Per evitare la scalabilità a livello internazionale dei dati italiani possono essere predisposte tutele adeguate sia dal punto di vista tecnico, come le chiavi crittografiche, sia dal punto di vista contrattuale, ottenendo cioè la garanzia che i dati non vengano ulteriormente ceduti». Le leggi esistenti sono sufficienti In sostanza le leggi che ci sono, come ad esempio, «le previsioni del regolamento Ue 679 del 2016 in tema di trasferimento di dati extra-Ue e di per sé sufficienti, ma a livello regolamentare si possono creare ulteriori framework che impediscano l'accessibilità da parte di terzi». Il Cloud Act, chiarisce il legale, «si applica ai provider americani e, in generale, ad operatori sottoposti alla giurisdizione degli Stati Uniti che conservano all'interno del cloud di loro proprietà i dati da chiunque essi provengano. Nel momento in cui si creano cloud e warehouse data che fuoriescono dalla giurisdizione degli Usa si è già tutelati dall'applicazione del Cloud Act. Facciamo un esempio: se io compro una macchina italiana che ha componenti forniti da un gruppo straniero, la gestione dei componenti che fanno parte della macchina e dei dati è, in generale appannaggio solo del produttore e non anche del fornitore. La gestione del cloud nel suo complesso nonché delle chiavi crittografiche possono, cioè, essere gestite dall'Italia anche se fornite da un provider straniero. Ciò non significa che il provider abbia libero accesso ai dati». No a preclusioni all'uso di applicativi solo perché forniti da un gruppo Usa Tirando le somme, «da un punto di vista logico, e nell'interesse dei cittadini italiani, credo non si possano avere preclusioni all'uso di applicativi forniti da un terzo solo perché è americano. Quello che interessa di più ai cittadini è garantire che il cloud sia sicuro, in grado di mettere la Pa nelle condizioni di fornire in tempi rapidi i propri servizi. La materia è in divenire, ma interessa tutti, visto che il Pnrr prevede circa 900 milioni di euro per il cloud nazionale». In questo panorama, il Garante della privacy «sarà sicuramente – conclude Masnada -un interlocutore necessario e auspico che vi sia un atteggiamento non ideologico ma concreto, sulla base di quanto finora fatto rispetto alla gestione dei dati». SFOGLIA IL REPORT COMPLETO 24/9/2021

24 Settembre 2021

Oracle Italia: «Ben posizionati per far parte del progetto di cloud nazionale»

La posizione del country manager Alessandro Ippolito. «Entro l'anno l'apertura della nuova cloud region a Milano» «Siamo ben posizionati a tutti i livelli e con tutte le aziende per far parte del progetto di cloud nazionale». Oracle Italia, società che è nel nostro Paese da 40 anni e conta 1.100 dipendenti, si candida a far la sua parte per il progetto annunciato dal ministro dell'Innovazione tecnologia e la trasformazione digitale Vittorio Colao, nell'ambito della strategia nazionale. A livello di sicurezza, per i dati più sensibili, la soluzione può essere, dichiara a DigitEconomy.24 (report del Sole 24 Ore e della Luiss Business School) l'amministratore delegato Alessandro Ippolito «il cloud pubblico gestito da Oracle a casa del cliente, è il modo migliore per essere compliant, conformi, con tutte le istanze in gioco ed essere ancora più aderenti alle richieste della strategia nazionale. È, cioè, il punto di partenza per risolvere il problema del Cloud Act», la legge americana che consente agli Usa di richiedere, in alcuni casi eccezionali, i dati conservati nei server dei provider statunitensi anche fuori dal territorio americano. Intanto Oracle in Italia continua a investire sul cloud e si appresta ad aprire «entro fine anno» la nuova "cloud region" a Milano. Il business del cloud diventa sempre più importante, anche in vista dei piani del Pnrr. Che parte del vostro fatturato rappresenta il cloud in Italia e quali sono i vostri piani? Siamo di fronte a un processo di forte adozione del cloud sia da parte delle imprese sia da parte della Pa. Ora, con il Pnrr, c'è un impulso forte, impresso dal Governo, sui processi di digitalizzazione. Per noi, al momento, il cloud rappresenta circa il 25-30% dei nostri ricavi a livello globale, con punte più alte in alcuni Paesi a seconda dei trimestri, ma in Italia prevediamo una crescita. In più, a breve, è nei nostri progetti l'apertura della nuova "cloud region" italiana, a Milano. In generale, dal punto di vista dei conti, il business italiano va molto bene, da molti trimestri, e su molte direttrici, non solo quella del cloud. Quando è previsto il taglio del nastro per il data center di Milano? Contiamo di aprire entro la fine dell'anno. Come potete contribuire al progetto di cloud nazionale? Le direzioni chiare del Pnrr, della strategia di cloud nazionale e di quella dei dati messe in campo dal Governo ci stanno coinvolgendo molto. In particolare, io sono un sostenitore del progetto di cloud nazionale. Oracle, dal canto suo, può offrire la maturità dei suoi servizi cloud, la capacità d'innovazione e investimento e lo sviluppo della tecnologia su cui è da sempre un'esperta, il data management. Inoltre, noi possiamo offrire una soluzione unica, che già vendiamo, e cioè il "cloud pubblico portato a casa del cliente" ("cloud at customer"), che garantisce la sicurezza e la gestione del dato nel data center del cliente, quindi in settori regolamentati dove è richiesta la residenza o sovranità dei dati entro i propri confini, tipicamente nella Pa e nel settore bancario e finanziario. Puntiamo inoltre a raggiungere l'obiettivo di mettere a fattor comune i dati tra le Pubbliche amministrazioni e tra le Pubbliche amministrazioni e i cittadini. Poi speriamo di dare il nostro contributo anche con il nostro cloud data center che sarà aperto a Milano. Sempre nel capoluogo lombardo stiamo inoltre per aprire la nostra nuova sede, in zona più centrale, che dovrebbe essere operativa nei primi mesi del 2022. Siamo presenti anche a Roma, con una sede estremamente importante vista la centralità che per noi, storicamente, rappresenta il mercato della Pa. Parteciperete alla selezione in corso per il cloud nazionale? Siamo ben posizionati a tutti i livelli e con tutte le aziende per essere parte di questo progetto. Come ovviare ai problemi del Cloud Act, la legge che consente ai giudici Usa di richiedere in determinate circostanze i dati conservati dalle multinazionali statunitensi anche fuori dal territorio americano? Quello del Cloud Act è un tema importante. Secondo noi la soluzione del "cloud at customer" cioè il cloud pubblico gestito da Oracle a casa del cliente, è il modo migliore per essere compliant, conformi, con tutte le istanze in gioco ed essere ancora più aderenti alle richieste della strategia nazionale. È, cioè, il punto di partenza per risolvere il problema del Cloud Act. Per quanto riguarda soprattutto i dati critici, sensibili, stiamo già fornendo la nostra tecnologia in maniera trasparente a vari clienti. Tra quanti si avvalgono delle nostre soluzioni applicative in cloud (SaaS), ci sono: Poste Italiane, Mondadori. Tra i clienti che si avvalgono della nostra soluzione "cloud at customer" si contano Inail, Deutsche Bank, Credit Agricole e altre realtà della Pa e del mondo bancario. SFOGLIA IL REPORT COMPLETO 24/9/2021

24 Settembre 2021

Dalla guida autonoma ai device sui nervi: arrivano i primi progetti di RobotIT

Lo raccontano i fondatori di Pariter, holding che affianca Cdp Venture Capital nell'iniziativa. Sono 15 i progetti selezionati, ne saranno scelti 8 Dalla riabilitazione alla chirurgia robotica. Dalla guida autonoma ai device sui nervi per far muovere gli arti delle persone che non possono deambulare. È l'orizzonte dei progetti di RobotIT, il primo polo nazionale per il Trasferimento tecnologico dedicato alla robotica finanziato da Cdp Venture Capital, affiancata dalla holding Pariter (che di volta in volta potrà anche fare da co-investitore nei progetti). L'obiettivo è sostenere la nascita di nuove start up ideate all'interno delle Università e nei centri di ricerca. Al momento, secondo quanto riferito a DigitEconomy.it (report del Sole 24 Ore Radiocor e della Luiss Business School) dai fondatori di Pariter, Matteo Elli e Jari Ognibene, sono stati visionati 80 progetti, con 15 in rampa di lancio per poi arrivare a selezionarne otto l'anno, e un impatto di investimento fino a due milioni di euro. Nuove realtà, inoltre, si affacceranno a breve, raccontano Elli e Ognibene: «saranno partner per la gestione della proprietà intellettuale, del supporto per le tematiche di elettroniche. Stiamo creando un ecosistema completo per mettere basi solide». Pariter è nata nel 2017 con l'obiettivo di creare un'entità di investimento in società deep tech basate in Italia, che sviluppano cioè tecnologie abilitatrici di innovazione spinta. Nel corso degli anni Pariter, che oggi raccoglie oltre 200 investitori, «si è evoluta ed è diventata – raccontano i fondatori – il principale network di investimento dedicato al deep tech. Investiamo sia sul fronte di iniziative pre-company, diventando in pratica il primo investitore, sia nella fase tradizionale di start up». Ora, con RobotIT che conta tra i primi partner Leonardo, si apre un nuovo orizzonte. «Si tratta – spiega Elli – di un veicolo di investimento, un polo, un ecosistema che mette assieme le quattro componenti principali: capitale, istituzione, corporate e ricerca». Pariter, dal canto suo, «gestirà le iniziative in termini di scouting, identificazione dei team, validazione della tecnologia, selezione delle opportunità di investimento. Abbiamo la possibilità di entrare nei centri di ricerca, valutare la tecnologia. A oggi abbiamo avuto modo di visionare più di 80 progetti, abbiamo selezionato 15 progetti, per poi arrivare a otto entro fine ottobre. Ogni anno verranno identificati tra 8 e 10 team, con circa due milioni di euro l'anno che finanzieranno questo tipo di iniziative». A qualche mese dall'inizio dell'attività di RobotIT, ora c'è un panorama più preciso sui progetti che saranno privilegiati: «si tratta di tematiche molto interessanti, legate al mondo della riabilitazione robotica, della chirurgia robotica, ai servizi legati al mondo di ristorazione, alla riabilitazione degli arti inferiori, sistemi per automazione e abilitazione di tutto il mondo dell'auto autonoma, dei veicoli a guida autonoma. C'è un team, ad esempio, che ha sperimentato con buoni risultati l'inserimento di alcuni device sui nervi; abilitando il controllo dell'esterno riesce, cioè, ad azionare il movimento del corpo in soggetti che non possono farlo in autonomia. Sono più avanti i temi della abilitazione robotica sugli arti o anche l'applicazione della robotica in ambito automotive e ferroviario per la guida autonoma. Un po' più indietro, ad esempio, è il tema della chirurgia robotica». Per vedere queste applicazioni sul mercato ci vorrà comunque molto tempo, considerando la fase della certificazione, dell'approvazione, dell'affinamento della tecnologia per un ciclo di vita completo che dura dai due ai quattro anni. Tuttavia, spiegano Elli e Ognibene, «può succedere che dopo poco una società sia interessata, anche se non è certificata e non è ancora pronta. In questo caso i tempi si accorciano». RobotIT è il primo progetto che apre una serie di investimenti del genere. Cdp Venture Capital, infatti, attraverso il fondo di technology transfer, con una dotazione di 275 milioni di euro, investirà in tutta la filiera del trasferimento tecnologico attraverso la creazione di poli nazionali distribuiti sul territorio. RoboIT è il primo. L'investimento iniziale, già stanziato da parte di Cdp Venture Capital e dagli altri fondi specializzati, è di 40 milioni, con un effetto leva stimato complessivo di oltre 100 milioni di euro in 4 anni per la creazione e lo sviluppo di più di 50 nuove aziende.  SFOGLIA IL REPORT COMPLETO 24/9/2021

10 Settembre 2021

«Preoccupati per uso tecnologie Usa nel Polo del cloud, garantire la sovranità»

Parla Francesco Bonfiglio, amministratore delegato dell'associazione Gaia-X, a DigitEconomy.24, report Il Sole 24 Ore e Luiss Business School, dopo la presentazione della strategia nazionale per il cloud Gaia-X, associazione per il cloud europeo a cui l'Italia partecipa, esprime preoccupazioni per l'apertura potenziale, nel progetto di Polo strategico nazionale, alle tecnologie degli hyperscaler americani come Google, Microsoft, Amazon. Tecnologie, spiega l'amministratore delegato Francesco Bonfiglio a DigitEconomy.24 (report del Sole 24 Ore e della Luiss Business School) che «sono intrinsecamente impossibilitate a garantire l'immunità da giurisdizioni non sovrane, in particolare dall'applicazione del Cloud Act», normativa che consente ai tribunali Usa di richiedere in alcuni casi i dati gestiti dai provider americani anche in altri Paesi. Per tutelare la sicurezza dei dati, Bonfiglio chiede, quindi, che nei requisiti del partenariato per la realizzazione del polo siano specificati trasparenza, sovranità e l'interoperabilità dei dati. Gaia-X, a cui al momento partecipano 53 aziende italiane, in questo contesto può essere lo standard di riferimento condiviso.  Come giudica il consorzio Gaia-X l'impianto della strategia di governo italiano sul cloud nazionale? Da quello che ho letto e sentito finora credo che l'aspetto positivo sia la volontà del Governo di creare un'infrastruttura sicura, strutturata per livelli, in funzione della criticità del dato. È un progetto che ha senso. Inoltre ho letto che deve essere basato sulle tecnologie migliori esistenti sul mercato. I punti di partenza sono dunque correttissimi. Mi convince meno l'apertura potenziale a tecnologie che sono intrinsecamente impossibilitate a garantire l'immunità da giurisdizioni non sovrane, in particolare dall'applicazione del Cloud Act americano. Inoltre tali tecnologie proprietarie non danno, soprattutto nel contesto specifico che sostanzialmente è un re-platforming (cioè uno spostamento di applicazioni da una piattaforma a un'altra), un valore aggiunto maggiore rispetto a quelle aperte, commerciali o open source. Il ministro Colao ha parlato di sistemi di sicurezza diversi a seconda della sensibilità del dato. Nonostante ciò, si corrono ancora rischi? È necessario comprendere meglio i meccanismi di sicurezza da attuare. In teoria l'obiettivo è avere dati sicuri, gestiti a seconda del livello di sensibilità, in pratica tuttavia non si comprende appieno come l'agenzia per la Cybersicurezza realizzerà questi principi. Il progetto Gaia-X ha un fine preciso che è quello di realizzare infrastrutture dati trasparenti e sovrane, ovvero offrendo la completa visibilità delle caratteristiche dei servizi offerti e il loro controllo. Non vedo come qualunque cloud nazionale, ovvero che gestisce i nostri dati più preziosi, possa prescindere da offrire tali garanzie, ma per il momento non ho riscontro della loro esistenza nella scelta impostata dal Governo. Nei requisiti della gara o del partenariato secondo me bisognerebbe dunque porre l'accento sul rispetto di tre parole chiave: trasparenza, sovranità e interoperabilità dei dati. Come potrebbe contribuire Gaia-X? Gaia-X ha un obiettivo dichiarato di abilitare la creazione di data-space (spazi dove si possono condividere in modo sicuro dati di diversi attori, privati o pubblici, per creare servizi basati sui dati) attraverso la creazione di una infrastruttura cloud europea sicura, trasparente, interoperabile e sovrana che risponde a regole comuni in tutta Europa. Il layer infrastrutturale di Gaia-X è dunque il progetto più importante, non solo in Europa, per definire concretamente come raggiungere questi elementi di garanzia e dovrebbe essere preso a riferimento. Se il polo strategico nazionale è deputato a raccogliere i dati più importanti del Paese, deve quindi rispondere ai requisiti di trasparenza e sovranità attraverso un modello definito e condiviso da tutti gli attori che lo realizzeranno. Se non quello di Gaia-X, qual è il modello attraverso il quale ottenere queste garanzie? Certamente ne serve uno di riferimento e altrettanto certamente non potrà essere quello di uno specifico fornitore. Sono certo, dunque, che Gaia-X possa essere un elemento costituente della soluzione. Questo vuol dire che al polo strategico non potrebbero contribuire gli hyperscaler americani? Assolutamente no, Gaia-X sta creando un layer che permette di controllare tutti i servizi che vengono offerti allo stesso modo. È una questione di equità e, di nuovo, di trasparenza. Un fornitore cloud italiano, così come uno americano, possono teoricamente offrire i servizi in chiave Gaia-X se decidono di esporli attraverso un formato di descrizione comune. Il secondo elemento necessario è l'apertura alla ispezionabilità delle caratteristiche dichiarate in questo descrittore. I componenti che Gaia-X sta sviluppando permetteranno di leggere le caratteristiche del servizio, verificarne la veridicità e tenerne traccia in un registro immutabile e incorruttibile. Le caratteristiche potranno poi essere riscontrate attraverso delle etichette che dimostrano il livello di conformità senza doversi fidare di dichiarazioni scritte e senza dover ispezionare la tecnologia dall'interno. Ma, anche al di là del progetto Gaia-X, ribadisco che è fondamentale fare riferimento a servizi ispezionabili, verificabili secondo un descrittore comune, garantendo l'interoperabilità per qualunque cloud che si possa definire ‘sovrano'. Le tecnologie utilizzabili a quel punto sono tutte senza esclusioni. Tuttavia, al momento, nessuna delle tecnologie Hyperscaler, basate su architetture chiuse e proprietarie, può offrire questo tipo di trasparenza e controllabilità. In conclusione, il polo strategico nazionale si basa fondamentalmente, in questa prima fase che durerà ben cinque anni, sulla scelta di un nuovo layer infrastrutturale, va dunque trovato uno standard, che sia quello di Gaia-X o altri che però al momento però non esistono. Il modello scelto dalla Francia dà sufficienti garanzie di sicurezza? È un modello che si basa su doppia chiave crittografica, è come se si consentisse di usare casa propria, consegnando le chiavi, ma tenendone una copia. Per un hyperscaler, le cui architetture sono state pensate per essere chiuse, fortemente uniformate e interconesse tra di loro per poter ottimizzare i servizi a valore aggiunto (monitoraggio, sicurezza, provisioning, etc.) proporre un modello disconnesso e sganciato dal cloud centrale è un ossimoro o una chimera. A livello tecnologico si potrebbero verificare due scenari. Nel primo caso si potrebbe creare una copia locale, ma questa non funzionerà come quella della casa madre perché non agganciata ai servizi centrali, non aggiornata, non monitorata e messa in sicurezza dai controlli centralizzati. Insomma, una architettura destinata all'obsolescenza. Nel secondo caso – che è peggiore – si creerebbe una realtà apparentemente a controllo pubblico locale, ma di fatto agganciata a quella centrale per beneficiare di tutte le caratteristiche di quest'ultima. Il titolare dunque risulterebbe una sorta di prestanome: si è trovato un escamotage al Cloud Act? No, perché di fatto il vero proprietario rimane l'hyperscaler americano. Si è risolta la questione dal punto di vista giuridico, forse, ma non da quello tecnologico. Anche per queste ragioni i player del consorzio Gaia-X sono preoccupati, e proporranno l'uso di Gaia-X. Non ho dubbi che il Governo accetterà questo tipo di consiglio. Come risolvere, infine, l'eventualità della partecipazione degli hyperscaler alla luce del Cloud Act americano? Ci aspettiamo che tutti gli operatori di mercato, compresi gli americani, si adatteranno alle esigenze che la comunità europea sta esprimendo attraverso un progetto come Gaia-X, ma più in generale dalla diffusa domanda di trusted platforms. Peraltro, Google, come Microsoft e Amazon, sono tra i partecipanti al nostro progetto. È necessario, come suddetto, focalizzarsi non sulla tecnologia ma sull'apertura, trasparenza e ispezionabilità dei servizi offerti. A livello pratico poi, l'unica soluzione per essere totalmente immuni dal Cloud Act oggi, è avere una soluzione totalmente basata su tecnologie aperte, non proprietarie, localizzata in siti e governata da operatori che rispondano alle giurisdizioni italiana ed europea. Da sempre le infrastrutture dati più sicure al mondo, dalla difesa allo spazio, alla ricerca, risiedono su infrastrutture totalmente proprietarie e cloud completamente aperti e basati su standard di sicurezza e trasparenza elevati. Il Cloud Act verrà risolto, spero, e dunque potremo muovere i nostri dati più liberamente, ma è importante partire col piede giusto e dunque assicurarci il completo controllo dei servizi che saranno alla base del Psn e dunque dei nostri dati più sensibili. SFOGLIA IL REPORT COMPLETO 10/9/2021

10 Settembre 2021

Almaviva:«Proposta sul cloud entro le prossime settimane, aperti a collaborare»

Parla il presidente Alberto Tripi, a Digiteconomy.24, report del Sole 24 Ore Radiocor e della Luiss Business School. Intanto il gruppo, che ha manifestato interesse per il polo nazionale con Aruba, lancia Almaviva Cloud Factory La società dell'innovazione digitale Almaviva, in partnership col provider italiano Aruba, «è pronta a fare la sua parte» nella partita del cloud nazionale e «lavora alla proposta da presentare al Ministero nelle prossime settimane». A contempo, spiega Alberto Tripi in un'intervista a Digiteconomy.24 (report del Sole 24 Ore Radiocor e della Luiss Business School) il gruppo, che ha già lanciato la Almaviva Cloud Factory, una sorta di fabbrica cloud, è «aperto a collaborare» con le altre aziende in campo. Il momento, chiosa Tripi, «è magico» e non si può perdere questa occasione visto che c'è «finalmente una proposta per realizzare quello che da anni stiamo chiedendo». Il Governo ha di recente presentato la sua strategia per il progetto di cloud nazionale che prevede la creazione di un polo strategico nazionale: entro il 2025 il 75% dei dati della Pa dovrebbe migrare nella "nuvola". Almaviva, al momento, gestisce oltre 3.000 sistemi cloud e assicura che il partner Aruba «ha potenza sufficiente per gestire almeno le applicazioni dei soggetti fragili». Presidente Tripi, in cordata con Aruba avete presentato una manifestazione di interesse per il cloud nazionale, andrete avanti con un'offerta nei prossimi giorni come richiesto da Colao? Innanzitutto è da dire che la nostra manifestazione di interesse è totalmente italiana, non ci sono soggetti esteri nell'azionariato delle nostre società. In Italia, tra l'altro, si ritiene di non essere in grado di raggiungere traguardi tecnologici ambiziosi. Noi, che collaboriamo anche con gruppi americani come Amazon e Microsoft, affermiamo, invece, che la potenza di Aruba è sufficiente per gestire almeno le applicazioni dei soggetti fragili. In generale, il progetto di cloud nazionale rappresenta un grande snodo per lo sviluppo del nostro Paese, finalmente c'è una proposta che può realizzare quello che da anni stiamo chiedendo. Noi, peraltro, siamo già sulla buona strada con la recente creazione con Aruba della nostra Almaviva Cloud Factory, una sorta di fabbrica cloud. Come nei processi manifatturieri, si prende cioè la materia prima, in questo caso i dati grezzi o semilavorati dei nostri clienti che, attraverso processi informatici vengono trasformati in cloud, facendoli diventare pronti a essere interrogati e a entrare in contatto tra loro. È il nuovo modo di fare fabbrica. Vogliamo così essere ancora più vicini ai nostri clienti cloud, tra i quali si contano già Ferrovie dello Stato, Miur, Ministero della Giustizia, Aifa, AgID, Anas, Ubs, Rai, Deutsche Bank. Ora stiamo lavorando alla presentazione di una proposta entro le prossime settimane, secondo le indicazioni del Ministro. Una proposta capace di mettere le nostre migliori competenze in ambito Cloud al servizio della modernizzazione del Paese perché, come ha sottolineato lo stesso ministro Colao, è sulla valutazione delle competenze che si misurerà la competizione ed il successo del progetto. Siete aperti a collaborazioni con gli altri gruppi che hanno presentato le manifestazioni di interesse? Noi siamo pronti a giocare il nostro ruolo e siamo in grado di mettere a disposizione la nostra esperienza. Ma nessuno pensa di essere il deus ex machina e poter fare tutto da solo, quindi - e su questo punto posso parlare anche a nome di Aruba - siamo pronti a collaborare. La congiuntura è favorevolissima, il ministro dell'Innovazione e della transizione digitale, Vittorio Colao, non è solo bravo, ma può anche disporre di un portafoglio per poter competere. Inoltre, a guida del ministero della Pa c'è il ministro Renato Brunetta, anche lui molto favorevole alla digitalizzazione. È un momento magico, non possiamo farcelo scappare. Si è parlato del coinvolgimento di grandi gruppi americani, come Google e Microsoft, nella realizzazione del cloud italiano. Come proteggere i dati sensibili anche alla luce di leggi come il Cloud Act americano che danno poteri ai giudici statunitensi anche sui dati conservati all'estero dai provider Usa? Varie aziende hanno presentato una proposta al Ministero, alcune delle quali in collaborazione con dei player americani, si tratta di una scelta fatta a monte. In questo caso ci sono norme che possono mettere in dubbio la capacità di proteggere i dati sensibili. Nel sistema francese, ad esempio (simile a quello presentato di recente da Colao, ndr), si usa un sistema di crittografia, d'accordo con gli operatori stranieri. Noi, dal canto nostro, siamo in grado con la nostra potenza elaborativa in Italia di gestire in sicurezza almeno tutti i sistemi definiti fragili. Sistemi che, peraltro, stiamo già per larga parte gestendo. Chi garantirà la sicurezza dei dati degli italiani? I sistemi in cloud non possono essere interrogati da chiunque, ma devono passare da un imbuto di collegamento, dove ci sono le capacità di cybersecurity. Visto che si tratta di un progetto di partenariato pubblico e privato, si prevede che il privato proponga una realizzazione e che lo Stato, qualora la giudichi favorevolmente, la faccia sua. Una volta compiuta la scelta, lo Stato diventa il custode del progetto. Se, da un lato, il privato lo realizza, dall'altro il pubblico sarà, dunque, garante della sicurezza. Colao ha dato una tempistica per il cloud nazionale e la migrazione dei dati della Pa. Quali sono le principali difficoltà? C'è una mole di lavoro da svolgere davvero grande, perché bisogna trasferire sul cloud i sistemi informativi di grandi complessi italiani come Inps e Inail, che già peraltro gestiamo. Bisogna passare da sistemi no cloud a sistemi in cloud. Il ministro Brunetta dice che vanno rivisti in maniera generale i processi dell'amministrazione. C'è, dunque, spazio e lavoro anche per le piccole imprese che sono molto vicino alla periferia del nostro Paese. D'altro canto, una volta realizzata la trasformazione, la Pa potrà svolgere molte più attività e stare più vicina ai cittadini. Nel campo del turismo manca una piattaforma italiana: questa potrebbe essere un'attività, solo per fare un esempio, da portare avanti.  SFOGLIA IL REPORT COMPLETO 10/9/2021

10 Settembre 2021

«Serve un accordo diplomatico con gli Usa per tutelare i dati europei»

Parla il giurista Innocenzo Genna, specializzato nella normativa europea del digitale, a DigitEconomy.24, report Sole 24 Ore e Luiss Business School Sicurezza dei dati e difesa della sovranità italiana ed europea: sono tra i problemi che si porranno nella discussione per la creazione di un polo strategico nazionale per il cloud. «Ci sono svariate esigenze che vanno studiate assieme, e serve, quindi, una mediazione. Da un lato – spiega a DigitEconomy.24, report del Sole 24 Ore e della Luiss Business School, Innocenzo Genna, giurista specializzato nella normativa europea del digitale – c'è l'esigenza della sicurezza, cioè di trovare provider che consentano ai dati strategici della pubblica amministrazione di essere sicuri da attacchi informatici o spionaggio». Dall'altro, serve «sicurezza non solo in termini di cybersecurity ma anche in termini giuridici». Occorre fare i conti con la normativa Usa del Cloud Act e il Fisa 702 In particolare, bisogna fare i conti con il Cloud Act, una legge americana che consente ai tribunali statunitensi di avere accesso ai dati custoditi dai provider Usa anche fuori dal loro Paese, persino in server europei. C'è inoltre il Fisa 702, la normativa dell'intelligence americana che consente ai servizi di sicurezza Usa di accedere a dati stranieri senza nemmeno passare da un giudice. «È evidente – aggiunge Genna – che il Governo italiano dovrebbe selezionare solo cloud provider chiaramente esenti da questi pericoli. La strategia cloud Italia, appena annunciata, menziona tutte queste criticità, ma non spiega ancora come risolverle. Si tratta di dettagli, ma sono importanti. Il Governo pone una forte enfasi sullo strumento della cifratura dei dati che, però, è pienamente efficace solo per le fasi di deposito, ma non di elaborazione che normalmente avviene in chiaro. È probabile che si sia ancora alla ricerca di una soluzione definitiva». La Francia consente l'uso delle tecnologie Usa a patto che non si inneschi il Cloud Act Il tema è rilevante, tanto che i francesi lo hanno già affrontato. Oltralpe, spiega Genna, non hanno «completamente escluso l'utilizzo di tecnologie straniere, ma sostengono che il cloud provider debba avere una casa madre europea, con server situati in Europa. Poste queste garanzie, non è escluso l'utilizzo delle tecnologie americane nella misura in cui non si inneschi il Cloud Act americano, mentre ancora non si capisce come i francesi pensino di contrastare il Fisa 702». Il modello francese, «che sembra buono dal punto di vista teorico e come punto di partenza, dovrà però essere testato in pratica. Italia e Francia si parleranno sicuramente perché i rispettivi modelli appaiono simili». Tutto ruota attorno al rischio di interferenze Usa, ma non bisogna dimenticare che «la normativa americana è soggetta a una procedura simile alla nostra, i giudici americani sono indipendenti, hanno un sistema giudiziario separato dagli altri poteri, sono soggetti a norme di legge che conosciamo; è quindi un sistema, differente da altri come quello cinese, con cui possiamo dialogare ma del quale ancora non ci possiamo fidare. «Sarebbe opportuno che l'Europa si muovesse in maniera uniforme» Con gli Usa ci vorrà, dunque, un accordo diplomatico per regolamentare l'interferenza di giudici ed Autorità sui dati europei. Si tratta, d'altronde, di una questione anche nell'interesse degli stessi americani: se non si trova una soluzione credibile, i provider Usa perderanno l'accesso al mercato europeo». In questo scenario sarebbe opportuno che «l'Europa si muovesse in maniera uniforme». Il tema della sicurezza dei dati, peraltro, è già in cima all'agenda europea. «Con le sentenze Schrems, la Corte di giustizia europea - ricorda Genna - ha ad esempio annullato gli accordi che consentivano di trasferire i dati personali europei in America». Nel caso del cloud «c'è un problema analogo, ma più ampio, perché riguarda anche i dati non personali che però possono essere ugualmente strategici (come i dati della Pa). La Ue dovrà negoziare tutto questo, ma mentre nel caso Schrems lo sta già facendo, con il cloud siamo in ritardo, si va avanti con iniziative nazionali. Non credo - aggiunge il giurista - si possa avere un accordo quadro europeo in tempi molto brevi. In assenza di tale accordo, gli Stati europei si parleranno tra di loro, si consulteranno con Bruxelles, cercheranno di andare avanti con principi già testati da altre cancellerie. Ogni situazione è diversa. In Francia e Germania, grazie alla presenza di consolidati cloud provider nazionali (Atos, Ovh e Deutsche Telekom) in grado di ridurre il contributo extraeuropeo, i Governi si sentono fiduciosi di poter andare più veloci. In Italia la situazione appare diversa e un po' più complicata poiché alcune grandi aziende nazionali (Tim, Leonardo) hanno fatto o annunciato accordi con operatori americani, i quali però tenderebbero a mantenere la leadership tecnologica rispetto al partner locale. Tutto questo pone un problema di sicurezza nazionale». «Il Governo giochi un ruolo di politica industriale» Di fronte a queste problematiche, infine, «il Governo dovrebbe giocare un ruolo di politica industriale e usare le gare per il cloud della Pa come leva per spingere l'industria italiana a essere più autonoma tecnologicamente, creando le premesse per la crescita dei cloud provider nazionali». D' altra parte, le esigenze della Pa sono più semplici del mercato privato, quindi non vi è necessariamente bisogno degli hyperscaler americani. Difatti, francesi e tedeschi stanno usando il pubblico proprio per far crescere l'industria nazionale». In conclusione, per il polo nazionale, si potrebbero «far crescere le aziende italiane ed europee che garantirebbero al 100% la sicurezza dei dati e la tecnologia che serve». Per quanto riguarda, invece, il cloud del mercato privato «non si può impedire agli Usa di fornire servizi in Europa, ma bisognerebbe porsi il problema dello strapotere degli Usa (e dei cinesi). Occorre, quindi, anche per risolvere questo problema, far crescere l'industria nazionale ed europea attraverso a leva della spesa pubblica. Ciò vale in particolare per i fondi del Pnrr: è inconcepibile che tali fondi europei possano essere utilizzati per incrementare il divario tra la tecnologia straniera e quella europea/ nazionale». SFOGLIA IL REPORT COMPLETO 10/9/2021

10 Settembre 2021

Anche per il cloud modelli regolatori basati sull’intelligenza artificiale

L'intervento di Fabiana Di Porto, professoressa di diritto dell'economia alla Luiss e di diritto e tecnologia Lo scorso 7 settembre il Governo ha presentato la strategia per il Cloud di dati e servizi della Pubblica amministrazione. Si tratta di un'infrastruttura strategica per l'Italia nell'offerta dei servizi pubblici del futuro. Il bel documento propone una complessa rete di governance dei rapporti tra soggetti pubblici e privati: più il servizio è critico meno il privato sarà ammesso a partecipare, e viceversa. Il modello di governance è interessante, ma molto diverso da quello adottato, ad esempio, in Francia o Danimarca per la gestione dei dati pubblici, dove sono partiti prima di noi. Quello dell'agenda Cloud è uno dei tanti casi che mi consentono di evidenziare l'utilità di avvalersi di un metodo sperimentale, prima di adottare una configurazione in modo definitivo: quello delle Regulatory Sandbox. Quando è l'intelligenza artificiale a regolare…insieme agli umani La regulatory sandbox serve ai legislatori e regolatori a decidere in ambiti affetti da grande incertezza (quale il rapporto tra l'umanità e i robot). Consente di sperimentare diverse soluzioni in ambiente controllato prima di traslarle su larga scala, al fine di osservarne i possibili effetti sugli stakeholder. In tal senso, la Regulatory sandbox consente di definire i confini tra quanto rischio siamo disposti ad accettare e quanto invece è meglio vietare, oppure assoggettare a controllo in attesa di maggiori informazioni. Oggi questa possibilità sperimentale è espressamente prevista dalla proposta di Regolamento UE sull'Intelligenza Artificiale dalla Commissione, del 21 aprile 2021. Nell'economia del regolamento, la Regulatory sandbox serve a disegnare regole ‘future-proof' o disegnate per restare (come certi edifici), e resilienti (cioè adattabili a condizioni ambientali variabili). Per norme giuridiche future-proof nell'Ai disegnarle per principi, e non in dettaglio Venendo allo specifico dell'Intelligenza artificiale, dire che una norma giuridica debba essere future-proof, significa disegnarla per principi (anziché con disciplina di dettaglio), mentre renderla resiliente significa ancorare tali principi su due punti cardinali: la proporzionalità (a piccolo rischio poca intrusività della regola) e la promozione dell'innovazione. Raggiungere questi obiettivi sarà possibile, secondo la Commissione, se ci si avvarrà di regulatory sandboxes, un modo certo non classico di fare diritto e regole. Esse sono indicate nella proposta di Regolamento come ‘innovation friendly' e ‘resilient to disruption'. Come dire che, affinché la creazione del diritto sia capace di assicurare l'innovazione, deve farsi innovativo anch'esso. E questo è un messaggio che il legislatore europeo ha fatto proprio. Nel caso dell'IA gli effetti del suo utilizzo sono solo in parte prevedibili. Nel senso che i sistemi che si avvalgono di questa innovazione potrebbero in futuro far sorgere rischi per la salute, la sicurezza e i diritti fondamentali. Ma al tempo stesso non possiamo bloccarne lo sviluppo senza neppure testarne le potenzialità, in quanto queste potrebbero essere positive, ed esserlo in maniera dirompente (o disruptive). Ecco, quindi, che a livello europeo, il principio chiave della regolazione dei sistemi potenzialmente rischiosi di IA è quello di consentire agli Stati membri di sperimentarli prima di immetterli sul mercato. Nella Ue occorre dotarsi di spazi normativi controllati dove sviluppare le applicazioni di Ai Gli articoli 53, 54 e 55 definiscono la procedura. Gli Stati membri sono tenuti a dotarsi di sandboxes domestiche, ovverosia di spazi normativi controllati, nell'ambito dei quali le applicazioni di Intelligenza artificiale (Ai) potranno essere sviluppate, testate e temporaneamente validate. Ove nella sandbox si rilevasse un rischio per la salute, la sicurezza o i diritti fondamentali non mitigabile attraverso le regole, allora le stesse saranno accantonate. La novità consiste pertanto nel ‘carattere temporaneo' delle regole. Queste potranno infatti essere ‘adattate', nella regulatory sandbox, o ‘accantonate' per un periodo di tempo specifico, al fine di verificare se saranno in grado di funzionare meglio su un determinato prodotto. Chiaramente, la circostanza che si tratti di un ambiente controllato diviene fondamentale per il buon esito della sperimentazione della regola. L'iniziativa è assunta dal regolatore nazionale (che nel caso italiano potrebbe essere l'Agcom o l'Autority cyber), al quale spetta individuare i soggetti (pochi) che parteciperanno alla sperimentazione. La logica è quella di consentire l'ingresso di un nuovo prodotto normativo (o la governance del Cloud) che, ancorché non necessariamente conforme alle regole esistenti, possa arrecare un possibile o effettivo beneficio per gli utenti o i consumatori. Il regolatore accompagna così lo sviluppo dell'innovazione, sorvegliandone l'ingresso sul mercato. Più coorti di innovatori concorderanno con il regolatore come svolgere gli esperimenti, che tipo di regole vigenti sospendere, e quali regole dovranno essere rispettate. Gli interrogativi sulle regulatory sandbox Fin qui le potenzialità delle Regulatory sandbox sembrano indubbie. Ma non mancano gli interrogativi: la disciplina dettata è molto scarna. Non sappiamo, ad esempio, come saranno organizzate in concreto le sandboxes negli Stati membri. Sarà, ovviamente, importante superare la diversità del disegno delle regulatory sandbox. L'attuale formulazione della proposta di Regolamento, infatti, sembra lasciare margini agli Stati membri per delle differenze. Spetterà alla disciplina di attuazione stabilire in futuro regole comuni per l'implementazione delle sandbox normative e per la cooperazione tra gli Stati membri. L'esempio delle sandbox usate in ambito FinTech non fa ben sperare: sono molto diversi i modelli adottati ed ancora non è prevalso un tipo istituzionale più efficiente di altri. Tuttavia, alcune regole di funzionamento che si ripetono cominciano ad emergere, come ad esempio quella di stabilire un set di regole da cui i regolatori possono deviare ed un set, per così dire, inderogabile. E' verosimile attendersi che per le sandbox nell'Intelligenza artificiale sarà fatto lo stesso. Inoltre, l'esempio FinTech è interessante anche sotto altro profilo. Esso è servito e tuttora aiuta a stimolare l'innovazione finanziaria specialmente dei piccoli operatori. Faranno ricorso a questi strumenti Pmi e startup Anche qui, dunque, c'è da attendersi che le piccole e medie imprese e le startup faranno un certo ricorso a questi strumenti, essendone i principali beneficiari. Al tempo stesso, tuttavia, è difficile immaginare che le Big Tech trarranno davvero profitto da questo strumento. Esso resterà, molto verosimilmente, un modello utile per garantire che ci sia innovazione prodotta da piccoli e medi soggetti. Un ultimo punto riguarda le regole di partecipazione e trasparenza delle regulatory sandbox. Affinché si possano produrre regole in linea con standard minimi di legittimità democratica, è necessario che siano definite regole (anche minime) per la partecipazione alla sandbox e di trasparenza delle decisioni. Quello che infatti può apparire un tema tecnico di validità "esterna" degli esperimenti (ad es. quante Pmi devono partecipare alla sandbox? Quindici o cinquanta? E quanti regolatori? Solo settoriali o generali? E chi tra i data scientist?) è anche e forse ora soprattutto un problema istituzionale. Chiariamo il punto. Stabilire chi è ammesso a una sperimentazione è certamente un problema di design di un esperimento, come sanno bene gli economisti. Esso condiziona la validità dei risultati e quindi l'efficacia del messaggio. Nel caso delle regulatory sandboxes applicate all'Intelligenza artificiale, si stanno testando regole per applicazioni potenzialmente dannose. Disegnare l'ambiente del testing è quindi non solo un problema di efficacia teorica dell'esperimento, ma anche questione di produrre regole partecipate da un numero di soggetti rappresentativi secondo canoni di democraticità; significa altresì dare accesso, con modalità da definire, ai metodi e alle procedure con cui si è addivenuti a quelle regole; significa infine motivare, la scelta operata. La strada per la definitiva approvazione di questa proposta di Regolamento è ancora lunga. Sono dunque da attendersi molti cambiamenti nei prossimi anni. Per questo ritengo che l'idea della regulatory sandbox sia particolarmente confacente al modello di una normativa a prova di futuro per l'innovazione, per l'Intelligenza artificiale, attraverso la sperimentazione in ambienti controllati, ma da definire nel quadro di regole di partecipazione (o co-regolazione) "umana".  SFOGLIA IL REPORT COMPLETO 10/9/2021