A cura di Marco Bubani, Direttore Innovazione VEM sistemi
La rapidità con la quale il mercato chiede alle imprese di adattarsi a nuovi scenari e a nuove condizioni è in costante aumento. Le infrastrutture digitali devono essere ancora più scalabili, flessibili e capaci di rispondere alle mutevoli necessità di business.
Una delle risposte a queste esigenze è stato il Public Cloud ma oggi, sebbene continui a essere una risorsa preziosa, le esigenze in evoluzione delle aziende e le nuove tecnologie richiedono soluzioni più diversificate e flessibili: data Sovereignty, norme sempre più attente alla sicurezza ed alla privacy delle informazioni, Intelligenza Artificiale, bassa latenza, e costi stanno evidenziando la necessità di progettare le infrastrutture in modo ibrido. Questo approccio, sfruttando i vantaggi del Public Cloud in combinazione con altre architetture, permette alle aziende di ottimizzare le prestazioni, la sicurezza e i costi, soddisfacendo al contempo le specifiche esigenze operative e strategiche.
Tuttavia, perché questo modello sia realizzabile, occorre ripensare completamente a come i Data Center sono stati progettati fino ad ora, portando quelle caratteristiche di flessibilità e scalabilità tipiche del Public Cloud anche sulle infrastrutture digitali delle imprese, e rivedendo il modello con il quale queste infrastrutture così dinamiche e distribuite vengono protette da nuove minacce.
In particolare VEM sistemi individua quattro “trend chiave” che stanno già generando impatto su come i Data Center sono progettati e che incideranno su come questi ultimi devono essere ripensati in futuro e tre vendor ICT in particolare che possono fare la differenza: Cisco, Red Hat, e Schneider Electric.
Un nuovo hardware
In passato, le CPU costituivano l’elemento predominante nei Data Center. Oggi, accanto ad esse, vi sono le GPU, processori specificamente dedicati all’Intelligenza Artificiale. Si è compreso che la capacità computazionale richiesta per elaborare le informazioni necessarie all’addestramento degli algoritmi non poteva essere gestita dagli stessi processori impiegati per la gestione delle applicazioni. Di conseguenza, è stato effettuato un offload di tutte le operazioni relative ai big data e all’IA su hardware specifici, ovvero le GPU.
Ma ora si sta delineando l’arrivo di un nuovo gruppo di hardware specifico. Anche l’infrastruttura del Data Center, che è sempre più orientata al software, può essere trasferita dalla CPU a un hardware dedicato noto come Data Processing Unit (DPU), ovvero schede con processori ottimizzati per gestire i quattro elementi strutturali del data center: networking, observability, storage e security. Tuttavia, nelle architetture complesse e distribuite, collocare questi quattro elementi su un hardware dedicato può risultare complesso nella progettazione del Data Center del futuro.
A questo concetto è associato il ruolo di CISCO, che, grazie all’acquisizione di Isovalent, una delle società con maggiore esperienza nel settore open source per il cloud networking e il service mesh, ossia la comunicazione tra container, ha ampliato la propria offerta creando così la soluzione Hypershild, una architettura di sicurezza nata per proteggere i datacenter di nuova generazione basati su AI. Isovalent è stata fondata con l’obiettivo specifico di gestire e ottimizzare networking, observability e sicurezza nei sistemi distribuiti basati su container. Di conseguenza, ciò consente a Cisco di ottenere una visione completa di tutte le comunicazioni, sia nel contesto fisico dell’hardware sia in quello orientato al software.
Il cloud
Il cloud offre numerosi vantaggi, tra cui la flessibilità, la scalabilità, la riduzione dei costi, tutto ciò lo rende una scelta attraente per molte aziende. Tuttavia, presenta anche alcune problematiche, come la governance dei dati, il controllo dei costi più difficile, la dipendenza da un cloud provider: infatti costruire servizi utilizzando tecnologie proprietarie dei grandi hyperscaler significa vincolarsi molto all’ hyperscaler stesso. Tutti questi aspetti hanno portato le aziende a ripensare a come progettare il Data Center per mantenere i vantaggi del cloud ma garantire anche maggiore governance, maggiore indipendenza dai cloud provider a cui ci si rivolge e un migliore controllo dei costi. Da queste considerazioni nasce così il trend della containerizzazione che vede in Red Hat una delle aziende di riferimento sul tema. Si tratta in dettaglio di un nuovo modo di rivedere le applicazioni scritte a microservizi ognuno dei quali viene gestito da un container applicativo che può essere spostato tra il mondo on premise e quello cloud mantenendo anche un certo grado di indipendenza rispetto al cloud provider a cui ci si rivolge.
La virtualizzazione
Recenti trasformazioni di mercato hanno portato le aziende a comprendere che il fattore dipendenza non è limitato soltanto ai provider di servizi cloud, ma si estende anche ad altre tecnologie utilizzate. Questa dipendenza, o lock-in, può verificarsi soprattutto quando esiste un fornitore dominante che è riuscito ad avere l’egemonia tecnologica all’interno del mercato. Cosa accade se nella proprietà, nella strategia, nella politica o nella stabilità commerciale di questo fornitore cambia qualcosa? Ecco emergere di nuovo la necessità per le aziende di cercare di essere da un lato più indipendenti e dall’altro di avere la capacità di valutare delle alternative. Nel mercato della virtualizzazione questa consapevolezza ha portato i CIO ad esplorare delle alternative tecnologiche rispetto a quelle fino ad ora abitualmente utilizzate.
Una di queste soluzioni, per chi fosse interessato ad intraprendere un percorso orientato alla modernizzazione delle applicazioni, è rappresentata, secondo VEM sistemi, dalla piattaforma Open Shift di Red Hat. Questa piattaforma è in grado di far convivere macchine virtuali e container applicativi all’interno dello stesso ambiente, gestendo in modo ibrido entrambi gli aspetti. Con questa soluzione in sostanza, le macchine virtuali vengono inserite all’interno di container applicativi consentendo una transizione graduale verso la riprogettazione delle applicazioni in ottica di microservizi.
L’Intelligenza Artificiale
L’Intelligenza Artificiale esercita un impatto significativo sui Data Center a causa della sua intrinseca esigenza di dati e risorse. Per addestrare o sviluppare algoritmi di AI, è necessario disporre di sistemi con elevate capacità computazionali, in grado di gestire un traffico dati estremamente elevato e di affrontare le esigenze di dissipazione del calore. Una così elevata concentrazione di carichi computazionali, unita alla necessità di accedere a volumi enormi di dati, rende i data center, concepiti secondo le attuali specifiche, inadeguati per supportare tali applicazioni. Schneider Electric, leader nella progettazione di DataCenter di nuova generazione, ha sviluppato tecnologie dedicate alla gestione di sistemi a capacità computazionale elevatissima in alta densità come quelli generati dall’AI, e con una fortissima attenzione alla sostenibilità ed alla riduzione dei consumi e dell’impatto sull’ambiente.
VEM Sistemi si distingue nel panorama dei system integrator grazie alla sua capacità di progettare sia data center fisici che, grazie all’acquisizione di Neen, infrastrutture basate sul cloud ibrido, potendo così offrire ai propri clienti soluzioni complete e di elevato valore. Attraverso l’attenzione ai temi chiave come il cloud, la virtualizzazione, l’intelligenza artificiale e l’evoluzione dell’hardware, VEM è in grado di anticipare e affrontare le sfide future, contribuendo alla realizzazione di Data Center moderni e avanzati. Questo posizionamento strategico consente a VEM di mantenere un ruolo di primo piano nell’innovazione e nella trasformazione digitale, supportando le aziende nel loro percorso di crescita e adattamento continuo.