From Core to Edge: Running Kubernetes Everywhere
Come gestire in modo semplice e dinamico gli ambienti IT distribuiti
La pandemia, costringendo molte imprese e istituzioni italiane ad abilitare dall’oggi al domani il lavoro e l’operatività da remoto, ha dato una forte accelerazione all’adozione dei servizi cloud. Se da un lato ciò ha contribuito in modo sostanziale ad accelerare i processi di trasformazione digitale, dall’altro ha inevitabilmente incrementato il livello di complessità nella gestione e orchestrazione dell’infrastruttura ICT.
Il cloud ha infatti consentito alle aziende di implementare nuovi modelli di business basati su servizi e prodotti digitali grazie alle sue caratteristiche di flessibilità , scalabilità ed efficienza e all’accesso a tecnologie emergenti, ma ha anche posto le organizzazioni IT di fronte a nuove sfide, come la modernizzazione applicativa e l’integrazione dei dati.
In ambienti hybrid e multicloud, orchestrazione e gestione sono oggi fondamentali per una strategia di migrazione di successo. Per realizzare quella che IDC definisce la Future Enterprise e liberare la capacità di innovare ovunque, le aziende dovranno evolvere da un approccio a silos a un modello a scalare basato su architetture cloud connesse, gestito e orchestrato da policy, supportato da soluzioni di automazione, intelligenza artificiale e machine learning (AI/ML).
Nella prima tappa di questo roadshow tematico abbiamo spiegato come gestire in modo efficace la complessità degli ambienti cloud e multicloud e come affrontare la modernizzazione applicativa (è possibile rivedere il webinar a questo link).
In questa seconda tappa parleremo invece di Kubernetes e di come attraverso questa piattaforma sia possibile raggruppare i container che compongono gli applicativi di nuova generazione in unità logiche per semplificare la gestione e la visibilità della propria infrastruttura. Aspetti che diventano tanto più importanti quanto più si intenda permettere ai workload di spostarsi in modo rapido, semplice e sicuro tra ambienti on-premise, ibridi, di cloud pubblico ed edge.
Durante il webinar, verranno fornite risposte a domande quali:
- Qual è il livello di scalabilità Âdi queste soluzioni?
- Si corre il rischio di vendor lock-in?
- Posso utilizzare Kubernetes anche con i workload più evoluti come AI/ML?