Categorie
Blog

Cloud Smart Check di CriticalCase: assessment di Sicurezza, Cost Management e Performance per le infrastrutture Cloud

Uno dei maggiori trend degli ultimi anni in ambito aziendale è stata la sempre più evidente migrazione delle infrastrutture IT da configurazioni on-premise, quindi sviluppate on-site, al Cloud.

Le ragioni di questa tendenza sono ormai note: perché gestire localmente gli aspetti legati a complessità tecnica, performance, manutenzione, aggiornamenti, business continuity e sicurezza quando è possibile delegarli a dei partner affidabili? La possibilità di contenere gli investimenti e di spostare il focus sulla produttività rendono poi il Cloud un’alternativa ancora più cost effective. Questo però non significa che le infrastrutture basate su di esso debbano essere escluse da un processo di ottimizzazione costante.

Per soddisfare questa particolare esigenza entra in gioco una soluzione come Cloud Smart Check di CriticalCase che permette di operare una valutazione degli aspetti legati a sicurezza, gestione dei costi e prestazioni appositamente dedicata alle infrastrutture Cloud.

Cos’è Cloud Smart Check di CriticalCase

Le infrastrutture Cloud sono in grado di offrire un ambiente sicuro, performante e usabile per velocizzare il deploy e il delivery di piattaforme e applicazioni. Nel tempo però l’accumularsi di configurazioni, servizi e attività non in linea con le best practice possono tradursi in un decadimento delle prestazioni e in un inatteso incremento dei costi. Tale condizione viene inoltre aggravata da deadline sempre più stringenti che portano a privilegiare il timing su ogni altro aspetto.

Cloud Smart Check di CriticalCase entra quindi in gioco come assessment  in grado di restituire un’immagine fedele dello stato di salute di un’architettura. Permette infatti di valutarne i livelli di sicurezza, costi ed efficienza tramite una procedura automatizzata.

Dall’analisi all’ottimizzazione delle infrastrutture Cloud

Le verifiche effettuate da Cloud Smart Check consentono di ottenere un report di sintesi con cui accedere ad un’istantanea dello stato corrente di una subscription. Ciò permette di evidenziare tutte le criticità e gli asset potenzialmente ottimizzabili.

A questa fase ne segue un’altra dove CriticalCase mette a disposizione il suo team di specialisti che, dopo aver fornito una spiegazione dettaglia dei risultati contenuti nel report, rilevano e indicano gli aspetti che necessitano di essere approfonditi, le possibili soluzioni e gli elementi utili per l’elaborazione di una strategia con cui ridurre al minimo il verificarsi delle anomalie, anche nel medio e lungo periodo.

Ma come vengono analizzati gli aspetti chiave per l’ottimizzazione di un’infrastruttura? Come vengono individuate le soluzioni più efficaci?

Sicurezza

Cloud Smart Check parte da una valutazione dei rischi con cui identificare vulnerabilità e potenziali minacce. Audit di sicurezza e test eseguiti con regolarità sono infatti fondamentali per la tutela costante dell’infrastruttura. Nello stesso modo lo è un controllo degli accessi basato su strategie di IAM (Identity and Access Management) che permetta l’accesso alle risorse al solo personale autorizzato.

L’assessment consente inoltre di verificare l’impiego o meno di protocolli di sicurezza aggiornati, quindi meno suscettibili di violazioni, permettendo anche di definire un sistema di monitoraggio contro qualsiasi attività sospetta e un piano per l’incident response e la mitigazione di eventuali danni.

Cost Management

L’analisi dei costi delle risorse Cloud operata grazie a Cloud Smart Check di CriticalCase consente di individuare sia le spese ricorrenti che quelle non necessarie in un’ottica di ottimizzazione degli investimenti. Ad essere ottimizzate sono quindi anche le risorse, e i relativi costi, massimizzando i benefici che derivano dalla scalabilità.

Le aziende hanno così una maggiore facilità nel programmare i budget e prevedere l’entità della spesa, ciò si traduce in una minimizzazione degli sforamenti che diventano evitabili tramite il monitoraggio in tempo reale dei consumi.

Efficienza e prestazioni

Il successo di un’infrastruttura Cloud dipende in gran parte dalla sua capacità di garantire performance elevate. Per questa ragione diventa fondamentale avvalersi di soluzioni in grado di monitorare e analizzare le prestazioni di applicazioni e risorse.

Ciò è possibile anche tramite un’analisi attenta delle dipendenze tra le applicazioni stesse, questo con lo scopo di evitare conflitti nell’accesso alle risorse e colli di bottiglia in grado di pesare sul regolare andamento delle esecuzioni in fase di deploy.

In ambiente Cloud l’efficienza è strettamente legata alla scalabilità delle risorse che devono essere sempre disponibili e commisurate alla domanda. L’opportunità di testare diverse modalità di scaling, sia orizzontalmente (scale out) che verticalmente (scale up), permette di pianificare strategie, come il ridimensionamento automatico, in grado di bilanciare correttamente consumi e prestazioni. 

La user experience ha infine un ruolo fondamentale nella valutazione di livelli di efficienza. Elaborare efficacemente i feedback permette di rilevare le criticità più tempestivamente e con un maggior grado di accuratezza. Con la possibilità di intervenire in modo preciso sugli aspetti potenzialmente migliorabili della UX.

Che si tratti di servizi Cloud mal configurati, datati o utilizzati per scopi differenti da quelli previsti come di pattern architetturali implementati in modo scorretto, Cloud Smart Check consente di accedere a soluzioni pratiche per operare sempre su infrastrutture ottimizzate.

Compila il form e contattaci!

















    Conclusioni

    Security, gestione dei costi e performance. Questi sono i tre pilastri di Cloud Smart Check, L’assessment di CriticalCase integrato per la protezione dei dati, il contenimento dei costi, la massimizzazione delle prestazioni e l’ottimizzazione della UX. Con un servizio altamente qualificato di monitoraggio 24/7 e la gestione di incidenti, CricalCase propone una revisione periodica delle aree critiche permettendo a qualsiasi progetto di evolvere nel tempo, adattarsi ai cambiamenti tecnologici e personalizzare soluzioni Cloud alle esigenze aziendali.

    Categorie
    Blog

    Prepararsi al picco di traffico del Black Friday: Web Performance Monitoring Gestito per e-commerce

    Il Black Friday rappresenta uno dei momenti più critici per il settore dell’e-commerce, influendo spesso significativamente sul volume complessivo di visitatori ed ordini.

    Atteso da consumatori e merchant, sebbene offra opportunità rilevanti per l’incremento delle vendite, comporta anche sfide in termini di gestione del traffico web e delle prestazioni di uno store online. Vale quindi la pena di analizzare nel dettaglio l’importanza del monitoraggio delle web performance per gli ecommerce, evidenziando come un servizio di Performance Monitoring come Business & UX monitoring di CriticalCase possa risultare determinante per la creazione di un vantaggio competitivo.

    Il Black Friday: una sfida per l’e-commerce

    Durante il Black Friday, gli e-commerce sono soggetti a picchi di traffico che raramente vengono registrati durante altri periodi dell’anno. L’afflusso massiccio di utenti intenzionati ad approfittare di offerte, sconti e promozioni può mettere a dura prova il sito Web, con conseguenze imprevedibili a danno di vendite e fidelizzazione. 

    Un incremento improvviso del traffico può tradursi infatti in rallentamenti, latenze prolungate o addirittura in crash che rendono inaccessibili le pagine di un e-commerce. Viene quindi compromessa la capacità di effettuare acquisti, spingendo gli utenti verso la concorrenza. A riprova di ciò basti pensare che, attualmente, il tempo medio di attesa tollerato per il caricamento di un contenuto online è ben inferiore ai tre secondi.

    Compila il form per scoprire le nostre soluzioni per rendere il tuo “Black Friday” più efficiente e performante!

















      Rischi economici e reputazionali associati alle inefficienze di un e-commerce

      Un sito web non performante durante un periodo cruciale come quello del Black Friday può subire innanzitutto ripercussioni economiche negative. 

      Fenomeni che possono verificarsi anche simultaneamente come rallentamenti, downtime o errori nel corso delle transazioni sono facilmente traducibili in perdite di fatturato. Un’esperienza utente di scarsa qualità può inoltre danneggiare la brand reputation di un e-commerce e vanificare qualsiasi sforzo o investimento dedicato all’engagement. 

      In un contesto digitale, recensioni critiche e un passaparola negativo possono diffondersi rapidamente, influenzando le scelte di acquisto dell’utenza, sia quella già fidelizzata che quella potenziale.

      Il valore di un servizio di Performance Monitoring gestito

      Fare riferimento ad un servizio di Performance Monitoring gestito significa avere un supporto nell’analisi delle prestazioni di uno store online affidandosi a figure professionali esperte nell’ottimizzazione e nella massimizzazione delle performance.

      L’importanza di un supporto specialistico continuo

      Un supporto continuo da parte di un team specializzato assicura che un sito web sia ottimizzato per offrire le migliori prestazioni possibili focalizzandosi sui KPIs più importanti da un punto di vista tecnico e di business.

      Questo significa essere in grado di identificare colli di bottiglia, comportamenti non abituali da parte degli utenti e potenziali vulnerabilità. La capacità di intervenire rapidamente è fondamentale durante periodi critici come il Black Friday, dove ogni secondo di inattività può comportare perdite economiche rilevanti.

      Componenti chiave di un servizio di Performance Monitoring gestito

      Una volta compresa l’importanza del monitoraggio delle web performance per gli e-commerce, ai fini della scelta del giusto partner è utile capire quali sono le componenti chiave di questo servizio:

      • Real User Monitoring (RUM): uno strumento con cui monitorare l’esperienza reale degli utenti, raccogliendo metriche quali tempi di caricamento, interazioni e segnali di frustrazione. Il RUM offre una visione dettagliata di come gli utenti percepiscono un sito web, permettendo di individuare  eventuali criticità.
      • Synthetic Monitoring: consiste nell’operare test programmati per misurare le principali metriche di performance. Questo tipo di monitoraggio permette di individuare anomalie anche in assenza di traffico reale.
      • CrUX (Chrome User Experience Report): CrUX è un report che raccoglie dati sulla UX direttamente dagli utenti del browser Google Chrome. Fornisce informazioni sulle prestazioni di un sito in condizioni di navigazione reali, permettendo di identificare aree di miglioramento basate su dati empirici. Sono metriche che hanno un impatto sul posizionamento SEO.

      Benefici strategici per il business

      Un servizio di Performance Monitoring gestito come Business & UX monitoring di CriticalCase determina benefici rilevanti per il funzionamento di uno store online, soprattutto in un periodo come quello del Black Friday:

      • Incremento delle conversioni: un sito Web stabile e performante durante i picchi di traffico migliora il tasso di conversione. Gli utenti sono più propensi a completare gli acquisti se l’esperienza di navigazione è fluida e senza interruzioni.
      • Miglioramento della UX: ridurre i tempi di caricamento e prevenire latenze ed errori contribuiscono a fornire un’esperienza utente di qualità, aumentando la probabilità di acquisto e favorendo la fidelizzazione.
      • Ottimizzazione dei costi operativi: prevenire problemi tecnici riduce la necessità di interventi d’emergenza e diminuisce il numero di reclami da parte dei clienti. Ciò si traduce in una riduzione dei costi di supporto e in una maggiore efficienza operativa.

      Conclusioni

      Nel corso di un momento cruciale per le vendite come il Black Friday, gli ecommerce possono dover fronteggiare rischi significativi per fatturato, reputazione e capacità di attrarre nuovi clienti. Un servizio  come il Business & UX monitoring di CriticalCase è quindi essenziale per garantire che un sito Web sia in grado di gestire workload elevati, offrendo al contempo una UX che gli utenti desiderino ripetere o condividere tramite recensioni positive e passaparola.  

      Investire in un partner professionale per il monitoraggio, l’analisi e l’ottimizzazione delle prestazioni non è solo una decisione di carattere tecnico, è una strategia che può determinare il successo o il fallimento durante i periodi più critici.

      Compila il form per scoprire le nostre soluzioni per rendere il tuo “Black Friday” più efficiente e performante!

















        Categorie
        Blog

        AiAbility: modelli di Intelligenza Artificiale Open Source su Cloud Privato

        L’AI sta cambiando il modo in cui le aziende gestiscono i loro processi interni e affrontano le sfide con i propri clienti. In questo contesto, il nuovo servizio AiAbility si pone come obiettivo quello di offrire modelli open source di intelligenza artificiale su cloud privato, fornendo scalabilità e flessibilità a supporto dell’innovazione aziendale. Di rilevante importanza sta nel capire quali sono le infinite possibilità che può offrire saper utilizzare questo potentissimo strumento.

        Zero11 e CriticalCase: la partnership italiana per l’Ai su Cloud privato

        Zero11 ha scelto Criticalcase come partner tecnologico per lanciare il progetto AiAbility, un servizio innovativo per lo sviluppo indipendente e sicuro di modelli di intelligenza artificiale. Questo servizio mira a supportare le aziende nell’ utilizzo consapevole dell’IA per la risoluzione di problemi specifici e per migliorare la loro efficienza operativa.

        L’approccio consulenziale è al centro, in base alle necessità del cliente,  in AiAbility è possibile trovare un tool affidabile per affrontare le sfide quotidiane legate all’IA con un focus particolare sulla protezione dei dati sensibili; un tema caldo che rispecchia a pieno i valori di sicurezza  del cloud privato di Criticalcase. Grazie alle soluzioni personalizzate  AiAbility garantisce la sicurezza delle informazioni.

        Partecipa al webinar!

        Il prossimo mercoledì 20 novembre 2024 alle ore 11:30, sarà possibile partecipare a un webinar gratuito organizzato per scoprire come l’AI in cloud privato possa rappresentare una vera e propria rivoluzione per le imprese.

        Durante il webinar verranno affrontati problemi frequenti delle aziende che vogliono adottare strumenti di AI, offrendo soluzioni concrete, e verranno evidenziate le opportunità offerte dalle nuove tecnologie con un approccio pragmatico e uno sguardo alle ultime innovazioni.

        Tra i temi principali:

        • AI: trend e sfide nella gestione nell’introduzione in azienda
        • Strategie per introdurre strumenti di AI nei processi aziendali
        • Vantaggi del Cloud Privato per l’AI
        • Case studies di successo nel settore B2B
        • Modelli Open Source: non solo ChatGPT e Gemini

        Scalabilità e flessibilità su Cloud privato

        Le soluzioni AI di AiAbility permettono scalabilità e flessibilità su cloud privato in modo che le aziende possono adattare facilmente e rapidamente le risorse AI alle proprie esigenze .

        L’ambiente cloud privato permette la massima sicurezza dei dati sensibili, consentendo alle aziende di utilizzare l’intelligenza artificiale in modo affidabile e responsabile attraverso un approccio personalizzato e orientato. Questa flessibilità consente alle aziende di crescere e adattarsi alle mutevoli esigenze del mercato in modo rapido ed efficiente, trasformando i processi aziendali e favorendo la crescita nel mercato competitivo.

        Una nuova opportunità per l’innovazione aziendale

        Questo nuovo servizio rappresenta un reale cambiamento nel modo in cui le aziende possono adottare l’intelligenza artificiale in modo concreto e sicuro. AiAbility.ai offre consulenza continua, formazione e supporto per guidare le aziende attraverso l’implementazione dell’IA e la risoluzione di sfide pratiche.

        Grazie alla sua natura personalizzata e scalabile, AiAbility si adatta alle esigenze specifiche di ciascuna realtà aziendale, consentendo di affrontare con successo le sfide nell’epoca della trasformazione digitale. Con questa nuova opportunità, le aziende possono ottenere risultati tangibili nella trasformazione dei processi aziendali, garantendo al contempo la massima sicurezza dei dati sensibili grazie all’utilizzo di un ambiente cloud privato.In questo modo, AiAbility apre nuove prospettive per l’innovazione aziendale, offrendo un partner affidabile e flessibile per abbracciare l’innovazione digitale e ottenere risultati concreti nel mercato competitivo di oggi.

        AI Ability

        La tua AI, sui tuoi dati, nel tuo Cloud.

        Categorie
        Blog

        SASE: il futuro della sicurezza IT. Come Criticalcase e Cato Networks guidano l’innovazione

        Secondo il recente report “Magic Quadrant for Single-Vendor SASE” di Gartner, il mercato dei servizi SASE (Secure Access Service Edge) Single-Vendor sta vivendo un periodo di forte crescita e dinamismo.

        Con un numero sempre maggiore di provider che vanno ad estendere l’offerta e le soluzioni disponibili. Gli operatori delle Infrastructure and Operations (I&O) responsabili della gestione di rete devono quindi collaborare strettamente con i loro referenti per la Cybersecurity, allo scopo di superare gli hype prodotti dal marketing e di selezionare i fornitori più adatti alle proprie esigenze.

        Nello specifico, un Single-Vendor SASE propone un’offerta in cui funzionalità di rete e sicurezza vengono proposte in un’unica soluzione, come Software-Defined WAN (SD-WAN), Secure Web Gateway, Cloud Access Security Broker, Firewalling e Network Zero Trust. Il tutto viene erogato attraverso un’architettura incentrata sul Cloud.

        Una delle previsioni più rilevanti tra quelle riportate da Gartner, riguarda il fatto che entro il 2027 il 65% degli acquisti di nuove reti SD-WAN farà parte di un’offerta SASE Single-Vendor, in netto aumento rispetto al 20% dell’anno corrente. L’attesa di questo incremento evidenzia l’importanza crescente delle soluzioni SASE nel panorama IT, stimolata dall’esigenza sempre più presente tra le imprese di unificare le funzionalità di networking e sicurezza.

        Cato Networks: un nuovo leader del settore

        Tra le novità più interessanti del report troviamo l’ingresso come azienda leader di Cato Networks nel quadrante di Gartner dedicato ai Single-Vendor SASE. A determinare questo risultato è stata ad esempio la sua piattaforma SASE Cloud. Soluzione unificata che offre un’interfaccia utente integrata per il management, con una curva di apprendimento non particolarmente ripida per gli operatori deputati al suo utilizzo. 

        I servizi di Cato registrano ora una forte penetrazione nelle medie imprese. Dovendosi mantenere i trend attuali, le future innovazioni della compagnia, che sono incentrate soprattutto sull’AI e sulla gestione semplificata delle policy di sicurezza, ne confermeranno il ruolo di guida per il mercato di riferimento. 

        Ecco perché Criticalcase si propone quale consulente e partner esperto nelle soluzioni di Cato come la piattaforma Cato SASE Cloud, offrendo valore aggiunto attraverso servizi professionali e tailor made. 

        Criticalcase e Cato Networks insieme per servizi SASE personalizzati

        Criticalcase ha scelto di attivare una partnership con Cato Networks perché le sue soluzioni rappresentano la prima implementazione del framework SASE con cui il providing di accesso sicuro e ottimizzato per utenti e applicazioni è stato individuato in un’architettura globale e Cloud Native.

        Criticalcase non si limita ad operare come rivenditore di Cato Networks, offre invece un valore aggiunto unico grazie ai propri servizi di integrazione, supporto tecnico e ottimizzazione per le esigenze specifiche del cliente. 

        Il tutto partendo da un fornitore in grado di collegare tutte le risorse di una rete aziendale (filiali, forza lavoro mobile, Data Center on-premise e servizi Cloud based), fornendo un servizio SD-WAN con livelli di sicurezza e controllo estremamente elevati. In questo modo le aziende possono migrare da network tradizionali, come per esempio quelli basate su MPLS che sono generalmente anche molto dispendiosi in termini di costi operativi, a reti globali, sicure, facilmente gestibili e cost-effective.

        Compila il form per scoprire la forza di Cato Network!

















          Use Case: un’implementazione per la sicurezza di dati e accessi con ottimizzazione delle performance

          A conferma di come la partnership tra Criticalcase e Cato Networks sia votata alla risoluzione di problemi concreti, è possibile citare uno Use Case di successo che ha riguardato un’azienda manifatturiera con forza lavoro distribuita in più sedi e diversi centri produttivi. 

          Nel caso in oggetto, il cliente era alla ricerca di una soluzione con cui proteggere dati riservati e garantire sicurezza nell’accesso alle applicazioni industriali. I rischi di accessi non autorizzati venivano infatti moltiplicati dalle complessità legate alla gestione di numerosi impianti e dei volumi di traffico veicolati.

          Criticalcase ha offerto la soluzione più adeguata al problema decritto tramite un’implementazione basata sui servizi Cato Networks SASE con ZTNA (Zero Trust Network Access). In questo modo è stato possibile:

          • applicare policy di sicurezza incentrate sia sull’identità che sul contesto, con il risultato di limitare il traffico ai volumi necessari per l’operatività e di assicurare la legittimità degli accesi.
          • Ridurre le latenze nelle comunicazioni tra gli impianti grazie alla rete SD-WAN integrata di Cato cha ha consentito di ottimizzare il traffico di rete.    
          • Sfruttare funzionalità di firewalling e ispezione del traffico per la protezione dei dati gestiti.

          La soluzione di Criticalcase ha così permesso di incrementare la produttività del 15%, dimostrando come sia possibile conciliare sicurezza, performance e ROI elevati anche in realtà strutturate che vogliano massimizzare efficacia ed efficienza dei processi di business.

          Criticalcase personalizza le soluzioni di Cato Networks

          Per Criticalcase la scelta di Cato Networks si inquadra in un approccio mirato a sollevare l’utente dagli oneri legati alla complessità dell’Infrastruttura IT, all’ottimizzazione degli investimenti e alla sicurezza. Con l’opportunità di mantenere il focus sulla produttività. 

          Per questa ragione i suoi servizi professionali vanno oltre la sola fornitura di piattaforme di terze parti. Riguardano invece anche:

          • l’analisi delle esigenze aziendali.
          • La pianificazione e l’implementazione personalizzata delle soluzioni proposte.
          • L’integrazione di tecnologie.
          • la gestione proattiva delle reti
          • Il supporto 24/7 

          Grazie alla sua partnership con Cato Networks, Criticalcase affianca i clienti nel percorso di adozione del modello SASE. Un framework che consente di convertire i servizi SD-WAN e di sicurezza di rete in un singolo modello di servizio, una piattaforma unificata, sicura e completamente Cloud Based. Rispetto a quanto accade con le architetture legacy, il suo approccio incentrato su SASE consente una riduzione dei costi operativi pari a 2/3.

          Compila il form per scoprire la forza di Cato Network!

















            Categorie
            Blog

            Data Center Tier IV: continuità operativa e sicurezza per chi non può permettersi downtime

            I Data Center Tier IV rappresentano lo standard più elevato in termini di affidabilità, disponibilità e sicurezza per le infrastrutture IT. Una scelta ottimale per CIO, CISO, ingegneri di rete, sistemisti, DevOps Engineer, Cloud Architect e non solo che cercano soluzioni con cui garantire continuità operativa, scalabilità in base alla domanda e protezione dei dati.

            Ridondanza, resilienza e fault tolerance

            La classificazione Tier, definita dall’Uptime Institute, categorizza i data center in base alla loro infrastruttura e alla capacità di garantire uptime:

            • I Data Center Tier I offrono un’infrastruttura di base a singolo percorso di distribuzione delle risorse e senza ridondanza, sono quindi suscettibili di interruzioni durante le manutenzioni o in caso di guasti imprevisti.
            • I Tier II prevedono la ridondanza dei componenti, riducendo il rischio di downtime durante manutenzioni pianificate. Presentano però anche in questo caso un singolo percorso di distribuzione.
            • I Tier III sono caratterizzati da percorsi di distribuzione indipendenti e supportano la manutenzione simultanea senza alcuna interruzione delle operations grazie a sistemi ridondati.
            • I Tier IV offrono tolleranza completa ai guasti con sistemi totalmente ridondati e indipendenti. Ciascun componente è ridondato, assicurando un uptime del 99,99%.

            La ridondanza completa, o 2N+1, comporta che ogni componente critico dell’infrastruttura, compresi i sistemi di alimentazione e raffreddamento, venga duplicato con ulteriori livelli di backup. Ciò garantisce la continuità dei processi di business anche in caso di guasti multipli. La fault tolerance è ottenuta attraverso un’architettura che isola i guasti, impedendo che un singolo problema possa influenzare l’intera infrastruttura.

            In termini di sicurezza, i Data Center Tier IV implementano misure avanzate sia fisiche che logiche, come per esempio controllo degli accessi biometrici, videosorveglianza continua e protocolli avanzati di Cybersecurity.

            Il Data Center Tier IV di Torino Nord

            Nella zona di Torino Nord, Noovle – società del Gruppo TIM specializzata in Cloud e AI che opera nell’ambito di TIM Enterprise – ha recentemente costruito un nuovo Data Center TIER IV. Questo impianto è stato progettato per un basso impatto ambientale ed è alimentato da una centrale di supporto creata per soddisfarne le esigenze energetiche. Criticalcase collabora attivamente con questa struttura che mette a disposizione spazi server per un numero selezionato di clienti, interessati ad accedere a un’infrastruttura con elevati standard di sicurezza e impatto ambientale limitato.

            Compila il form e contattaci!

















              I Data Center Tier IV rispettano i più alti standard di sicurezza e garantiscono affidabilità in ogni situazione. Questo grazie a sistemi di continuità elettrica e di raffreddamento, protezione dei cablaggi e impianti di sicurezza. La flessibilità e modularità della struttura consente di offrire soluzioni personalizzate con SLA e costi adattabili alle esigenze di qualsiasi cliente.

              Il Data Center è certificato da:

              • Uptime Institute e ANSI/TIA: per la qualità dell’infrastruttura e degli impianti.
              • ISO9001, ISO14001, ISO27001: per la gestione del processo con focus su qualità, ambiente e sicurezza.
              • ISO50001 e Codice di Condotta per l’impegno nel rispetto dell’ambiente e nell’uso dell’energia.

              I Data Center sono costruiti seguendo elevati standard di sicurezza, operatività ed efficienza energetica. Sono collegati fra loro con una rete ad alta velocità, assicurando Business Continuity a bassa latenza e disaster recovery sia tra i Data Center Noovle che tra Data Center e i clienti. Hanno ricevuto oltre cento certificazioni, tra cui il Codice di Condotta Europeo (CoC) per l’efficienza energetica.

              Le strutture utilizzano il 100% di energia rinnovabile e sistemi di raffreddamento eco-compatibili. Sono già previsti impianti di autoproduzione per minimizzare l’impatto ambientale e aumentare l’autonomia energetica, rendendo i Data Center meno dipendenti da fattori esterni.

              Efficienza energetica e sostenibilità

              I Datacenter Tier IV integrano tecnologie avanzate per l’efficienza energetica e il raffreddamento a basso impatto ambientale. Riducono quindi al minimo l’impronta di carbonio e i costi operativi. L’utilizzo di energie rinnovabili e tecnologie di raffreddamento all’avanguardia contribuisce al contenimento della spesa e influisce positivamente sulla Brand Reputation in quanto risponde alle crescenti aspettative in termini di responsabilità ambientale.

              I Data Center Tier IV Lead offrono un equilibrio ideale tra prestazioni elevate e sostenibilità, permettendo di implementare soluzioni IT senza pesare eccessivamente sui bilanci operativi e massimizzando l’efficienza economica.

              Disponibilità e scalabilità dei Data Center Tier IV

              La massima disponibilità è fondamentale per minimizzare il rischio di downtime, garantendo che le applicazioni critiche rimangano sempre operative. La scalabilità dell’infrastruttura permette inoltre di adattarsi rapidamente alle esigenze aziendali in evoluzione, senza interruzioni. La conformità è poi facilitata grazie all’allineamento con le normative sulla gestione e protezione dei dati, riducendo il rischio di sanzioni.

              L’ottimizzazione dei costi è un altro vantaggio, con un investimento che, a lungo termine, porta all’ottimizzazione del budget grazie alla riduzione dei downtime e all’efficienza operativa. Inoltre, i Data Center Tier IV supportano l’innovazione fornendo una base solida per l’impiego di tecnologie come l’implementazione e il training di modelli linguistici, le applicazioni di intelligenza artificiale e l’IoT.

              Perché scegliere un Data Center Tier IV

              Nella scelta di un Data Center Tier IV è importante considerare non poche variabili chiave. La valutazione delle esigenze richiede un’analisi dei requisiti aziendali in termini di capacità, sicurezza e conformità. La selezione del fornitore deve quindi basarsi su esperienza, reputazione e capacità di supportare le esigenze future. Il TCO deve tenere conto non solo dei costi iniziali ma anche di quelli operativi e i potenziali risparmi derivanti dalla maggiore efficienza e dalla riduzione dei downtime.

              La pianificazione tecnologica è quindi cruciale per verificare che l’infrastruttura supporti future evoluzioni tecnologiche e strategie di crescita.

              Compila il form e contattaci!

















                Categorie
                Blog

                Evento “Il Cloud Business Critical” – 23 Ottobre 2024 – Sede AWS di Milano

                Cos’è, quali tecnologie e come si misura.

                Il prossimo 23 ottobre 2024, nel pomeriggio, presso la sede di AWS (Amazon Web Services) a Milano si terrà un evento dedicato alle soluzioni cloud e alle innovazioni tecnologiche, durante il quale ci saranno due interventi: il primo, condotto da AWS, presenterà una visione strategica volta ad aiutare le aziende a ottimizzare le proprie infrastrutture digitali; il secondo intervento sarà a cura di Criticalcase, dove scopriremo competenze e approcci innovativi nella gestione di ambienti cloud complessi.

                Verranno poi condivisi alcuni case history significativi di sfide reali e problematiche risolte con soluzioni su misura. Attraverso esempi pratici, verrà illustrato come migliorare le performance, ottimizzare i costi e garantire continuità operativa grazie a una consolidata esperienza nel settore.

                L’evento sarà un’occasione preziosa per approfondire temi chiave legati all’infrastruttura cloud, alla sicurezza e alla scalabilità, offrendo spunti utili per tutte le realtà che desiderano innovare il proprio business.

                Tavoli tecnici interattivi a cura di Criticalcase

                I partecipanti avranno inoltre l’opportunità di approfondire tre aree chiave attraverso tavoli tecnici interattivi, guidati dagli esperti Solution Architect di Criticalcase.

                Scopri qui i relatori →

                Security

                In questa sessione esploreremo come sfruttare al meglio i servizi AWS più avanzati per la Security, con il supporto dell’Intelligenza Artificiale (AI) per migliorare la protezione delle infrastrutture e dei dati sensibili.

                Tra i temi principali:

                •  AI per la sicurezza
                •  DevSecOps e automazione della sicurezza
                •  Problematiche operative e gestione delle minacce
                •  Sicurezza di applicazioni e reti
                •  Protezione dei dati e mitigazione delle vulnerabilità

                Cloud Native

                In questa sessione, partendo dall’analisi dei reali benefici portati dalle architetture Cloud Native, andremo a esplorare come costruire applicazioni moderne, scalabili e resilienti utilizzando i più efficaci pattern messi a disposizione dal Cloud e in particolare dalla piattaforma AWS.

                Vedremo nel concreto alcune soluzioni di scenari architetturali e come trasformare un’architettura monolitica in una soluzione Cloud Native, analizzando fattibilità, effort, portabilità, manutenibilità e costi/benefici.

                Tra i temi principali:

                • Architettura a Microservizi
                • Containerizzazione
                • Serverless
                • DevOps e CI/CD
                • IaC

                Dietro le quinte dell’IT Operations

                Scopriremo come il servizio di IT Operations di Criticalcase gestisce ambienti complessi. L’AI permette di velocizzare l’individuazione degli errori nei log, ottimizzando i tempi di ricerca e facendoci concentrare sulla risoluzione dei problemi. Il monitoraggio in tempo reale delle anomalie ci aiuta a prevenire criticità nascoste, utilizzando soluzioni per ottimizzare i costi, proteggere le applicazioni con strumenti avanzati e gestire centralmente il patching di sistemi operativi e middleware. L’Infrastructure as Code (IaC) ci permette di automatizzare e standardizzare la configurazione, migliorando scalabilità e riducendo errori.

                Tra i temi principali:

                • Monitoraggio delle performance infrastrutturali e delle anomalie
                • Patching centralizzato di OS e Middleware
                • Ottimizzazione dei costi
                • Automazione con IaC e Terraform
                • Deploy del codice applicativo con pipeline

                Un’occasione unica per apprendere, confrontarsi con esperti e discutere delle sfide e delle opportunità del cloud per la tua azienda.

                L’evento si concluderà con un aperitivo, un momento informale per conoscere e salutare gli ospiti di questo appuntamento.

                Agenda

                • 14:00 Welcome coffee
                • 14:30 Benvenuto a cura di Amazon Web Service e Apertura dei lavori a cura di Criticalcase
                • 15:15 Coffee break
                • 15:30 Tavoli tecnici interattivi guidati dagli esperti Solution Architect Criticalcase
                  — TAVOLO 1 – Security
                  — TAVOLO 2 – Cloud Native
                  — TAVOLO 3 – Dietro le quinte dell’IT Operations
                • 17:00 Chiusura dei lavori e aperitivo finale

                La partecipazione all’evento è GRATUITA previa registrazione e soggetta a conferma da parte della Segreteria Organizzativa.

                Info e Dettagli

                Data e ora: 23 ottobre 2024, ore 14:00

                Location: Amazon Web Services Italia, Viale Monte Grappa, 3/5, 20124, Milano 

                Un evento di Criticalcase, con il contributo di AWS, in collaborazione con Soiel International.

                Vi aspettiamo!

                Categorie
                Blog

                Direttiva NIS2: novità, obblighi, sanzioni e adeguamenti per la compliance

                La Direttiva NIS 2 rappresenta un aggiornamento fondamentale per la Cybersecurity in Europa.

                In risposta all’emergere di nuove vulnerabilità e minacce, comprese quelle derivanti dall’impiego delle tecnologie di AI per finalità malevole, l’Unione Europea ha introdotto la Direttiva NIS 2 (Network and Information Security Directive 2) allo scopo di rafforzare il quadro normativo per la protezione delle reti e dei sistemi informativi.

                Recepita in Italia il 1° ottobre 2024 con il decreto legislativo 138/2024 che ne ha ufficializzato l’entrata in vigore dal 16 ottobre 2024, questa misura costituisce un’evoluzione della direttiva NIS del 2016, con l’obiettivo di garantire un livello elevato, comune e condiviso di sicurezza delle informazioni in tutti gli Stati membri.

                Di seguito, analizzeremo nel dettaglio la NIS 2 così come le sue implicazioni per le aziende e gli operatori del settore IT. Capiremo inoltre quali sono le iniziative necessaire per un adeguato livello di compliance.

                Cos’è la Direttiva NIS 2?

                La NIS2 è un aggiornamento del quadro normativo introdotto con la Direttiva NIS (2016/1148/UE) che si concentrava sulla sicurezza delle reti e dei sistemi informativi in ambito UE. 

                L’obiettivo principale della NIS 2 è quello di migliorare la resilienza e la sicurezza delle infrastrutture digitali, imponendo obblighi più severi alle imprese e agli Stati per prevenire, mitigare e rispondere agli incidenti informatici. Essa definisce inoltre requisiti più rigorosi in termini di gestione dei rischi, segnalazione degli incidenti e sicurezza operativa all’interno delle organizzazioni.

                Particolarmente importante è poi principio di proporzionalità, per il quale le misure prescritte devono essere commisurate alle dimensioni di un’organizzazione, alla criticità dei servizi erogati e al livello di rischio.

                Compila il form per contattarci e scoprire ancor di più sulla Direttina NIS 2!

















                  Settori coinvolti e portata della Direttiva

                  Una delle principali novità della Direttiva riguarda la sua applicabilità ad un numero più ampio di settori rispetto a quelli inizialmente previsti. Nella versione originale la NIS si focalizzava sulle infrastrutture critiche, la NIS 2 include ora un insieme più vasto di servizi essenziali e digitali.

                  Alcuni dei comparti coinvolti includono infatti:

                  • Energia
                  • Fornitura di acqua potabile e gestione delle acque reflue
                  • Trasporti
                  • Sanità
                  • Infrastrutture finanziarie
                  • Provider di servizi di Cloud Computing, Hosting e altri servizi correlati
                  • Fornitori di servizi digitali
                  • Gestori di Data Center
                  • Servizi erogati dalla PA

                  Inoltre, la direttiva introduce una distinzione tra operatori di servizi essenziali, quelli ritenuti fondamentali per il funzionamento della società e dell’economia, e fornitori di servizi importanti, con requisiti specifici per ciascuno di essi.

                  Obblighi e sanzioni per gli operatori IT

                  Per gli operatori del settore IT, la NIS 2 comporta diversi adeguamenti ai fini della conformità. Particolare attenzione viene data a:

                  • Art. 20 – Governance: le organizzazioni devono nominare responsabili per la sicurezza informatica (CISO, Chief Information Security Officer) e garantire che le pratiche di Cybersecurity siano integrate a livello dirigenziale. Ciò assicura che la sicurezza informatica sia considerata una priorità strategica per l’azienda a partire dai suoi vertici.
                  • Art. 21 – Gestione del rischio di sicurezza: le imprese devono adottare misure di sicurezza avanzate per la gestione del rischio, basate su standard riconosciuti e aggiornati. Devono essere implementati inoltre piani di continuità operativa e misure di protezione per prevenire e mitigare gli attacchi informatici.
                  • Art. 23 – Segnalazione degli incidenti: NIS 2 introduce requisiti di segnalazione più rigorosi rispetto al passato. Gli operatori devono notificare gli incidenti significativi alle autorità competenti entro 24 ore dalla loro rilevazione. È poi richiesto un aggiornamento dettagliato entro 72 ore per la comunicazione di eventuali sviluppi o esiti di indagini interne.

                  Le sanzioni per eventuali violazioni variano in base alla gravità dell’infrazione e alle dimensioni dell’organizzazione coinvolta, sottolineando il principio di proporzionalità:

                  • per le violazioni più gravi si può arrivare fino a 10 milioni di euro o al 2% del fatturato annuo globale totale. Viene preso come riferimento l’importo più ingente.
                  • Fino a 7 milioni di euro o all’1.4% del fatturato annuo globale totale per le violazioni il cui livello di gravità non rientra nella categoria precedente.

                  Agli Stati membri spetta il compito di stabilire un sistema di valutazione che tenga conto della dimensione dell’azienda, del tipo di servizio fornito e del rischio associato ad un settore specifico. Le sanzioni devono essere quindi proporzionali alla criticità del servizio e al potenziale impatto di un incidente

                  La NIS2 dispone inoltre che la responsabilità della Cybersecurity debba essere implementata anche ai vertici di un’organizzazione, includendo dirigenti e board. I leader aziendali devono quindi assicurare che le decisioni riguardanti la sicurezza vengano prese consapevolmente, con le risorse necessarie e tramite la strutturazione dei processi.

                  Nuovi Standard per la resilienza nella Cybersecurity

                  Un altro aspetto chiave della Direttiva NIS 2 è la definizione di nuovi standard minimi per la sicurezza dei network e dei sistemi informativi. Gli operatori IT dovranno adottare infatti misure specifiche per migliorare la resilienza delle infrastrutture digitali, tra cui:

                  • Cifratura dei dati: diventa obbligatoria per proteggere i dati sensibili e garantire che informazioni critiche non vengano intercettate o alterate.
                  • Autenticazione multifattore (MFA): per garantire che soltanto gli utenti autorizzati abbiano accesso ai sistemi protetti.
                  • Patching e aggiornamenti regolari: la Direttiva impone di mantenere costantemente aggiornati i loro sistemi, applicando patch di sicurezza e aggiornamenti per correggere le vulnerabilità che dovessero emergere eventualmente nel tempo.

                  Best practices per la compliance

                  Per gli operatori del comparto IT, la conformità alla NIS 2 richiede una revisione accurata delle pratiche di sicurezza attualmente in essere e un aggiornamento dei processi interni. Tra le raccomandazioni chiave per prepararsi alla conformità con la Direttiva troviamo:

                  • Valutazione dell’attuale livello di compliance: cioè effettuare un audit completo delle pratiche di sicurezza correnti per identificare eventuali criticità, mancanze o lacune rispetto ai requisiti minimi previsti dalla NIS 2.
                  • Implementazione di un piano di gestione del rischio: quindi stabilire un piano formale per la gestione del rischio, con procedure chiare per la prevenzione e la risposta agli incidenti.
                  • Rafforzamento delle pratiche di governance: con cui garantire che la sicurezza informatica sia integrata nella strategia aziendale e che il CdA e la leadership aziendale siano direttamente coinvolti in fase di supervisione.
                  • Collaborazione con fornitori e partner: stabilendo accordi con fornitori terzi per assicurarsi che rispettino gli standard di sicurezza richiesti, con contratti che prevedano clausole specifiche e vincolanti sulla conformità alla NIS 2.
                  • Formazione del personale: assicurandosi che dipendenti e collaboratori siano adeguatamente formati e competenti sulle misure di sicurezza richieste e sulle procedure di segnalazione degli incidenti.

                  Le autorità nazionali avranno il potere di effettuare ispezioni e audit per verificare la compliance alle norme della direttiva. In caso di mancata conformità, potranno applicare le sanzioni previste.

                  L’importanza della GAP Analysis per la compliance

                  Come anticipato, la NIS2 stabilisce un elenco di misure tecniche e organizzative per il raggiungimento di una soglia minima di Cybersecurity, introducendo un vero e proprio nuovo paradigma legato al traguardo della compliance. Per questa ragione CriticalCase, in un’ottica di gestione ottimizzata del rischio, propone lo svolgimento di una Gap Analysis a seguito della quale valutare le misure da intraprendere prima di qualsiasi investimento mirato alla conformità delle misure di sicurezza. 

                  È infatti fondamentale tenere conto del fatto che la proporzionalità delle misure da attuare è determinata dal potenziale impatto di un qualunque incidente informatico. Ne consegue che maggiore è la gravità degli effetti, più ingente dovrà essere l’impegno per l’implementazione delle misure finalizzate alla gestione del rischio.

                  Nella gestione del rischio rientrano:

                  • politiche di analisi dei rischi dei sistemi informatici;
                  • garanzie di continuità operativa (ad esempio gestione di backup e ripristini);
                  • gestione degli incidenti;
                  • sicurezza dell’acquisizione, sviluppo e manutenzione dei sistemi informatici e di network, comprese le modalità di divulgazione delle vulnerabilità emerse;
                  • pratiche di igiene informatica di base e formazione in tema di Cybersecurity;
                  • politiche e procedure sull’uso della crittografia e della cifratura;
                  • sicurezza della supply chain;
                  • strategie e procedure per valutare le misure di gestione dei rischi e la loro efficacia;
                  • sicurezza delle risorse umane.

                  A quanto elencato si aggiungono altre misure tecniche come l’uso dell’autenticazione multi-fattore o dell’autenticazione continua, così come di soluzioni per le comunicazioni vocali, video e testuali protette e di sistemi di comunicazione di emergenza protetti internamente. 

                  Eventuali criticità possono emergere, appunto, soltanto a seguito di una Gap Analysis approfondita che preceda il percorso verso la compliance.

                  Conclusioni

                  La Direttiva NIS 2 rappresenta una risposta alla crescente complessità delle minacce informatiche e pone nuovi standard per la sicurezza e la resilienza delle reti e dei sistemi informativi in Europa. Per gli operatori del settore IT, la conformità a questa direttiva richiede un approccio proattivo e coordinato per gestire il rischio informatico e garantire la protezione delle infrastrutture.

                  Verificare il proprio livello di compliance ed intervenire in tutti gli aspetti che potrebbero limitarla è quindi fondamentale sia per evitare sanzioni e che per garantire che un’organizzazione sia posizionata adeguatamente per affrontare le nuove sfide legate alla Cybersecurity.

                  Compila il form per contattarci e scoprire ancor di più sulla Direttina NIS 2!

















                    Categorie
                    Blog Eventi

                    Criticalcase sponsor all’ MSP DAY: Il punto d’incontro del Managed Service Provider in Italia

                    Cosa significa MSP?

                    Un Managed Service Provider eroga servizi IT di gestione automatica di reti, cybersecurity, infrastrutture da remoto per conto dei suo clienti, garantendone la qualità e assicurandone la continuità e una migliore efficienza complessiva.

                    La scalabilità e la flessibilità sono necessarie quando si parla di questo modello di business, i vantaggi sono numerosi, tra i tanti quello di accedere a competenze IT specializzate evitando di assumere personale interno dedicato.

                    Se anche tu lavori nel mondo IT,  non puoi mancare ad un evento interamente dedicato a chi eroga servizi IT gestiti; l’ MSP Day si terrà il 6 e 7 Giugno 2024 a Riccione presso il palazzo dei congressi.

                    Per rimanere aggiornato, compila il form:

















                      Perché partecipare?

                      Partecipando a MSP Day potrai:

                      • comprendere il modello di business dei servizi IT gestiti;
                      • confrontarsi con differenti realtà e scoprire soluzioni più efficaci.
                      • mettere in discussione la propria zona di comfort per aprirsi a nuovi mercati;
                      • Visitare gli sponsor e capire quali sono le soluzioni più adatte al proprio business
                      • Partecipare allo speech di Criticalcase & Veeam

                      7 Giugno ore 17:40 MSP DAY – Sala Violante 

                      Criticalcase & Veeam – Ambiente Kubernetes su infrastruttura private Cloud

                      Vittorino Aprile, Sales Manager di Criticalcase, Giorgio Milanesio, BU & IT Service Manager di Criticalcase, e Marco Carrara, Senior Systems Engineer di Veeam Software

                      Criticalcase & Veeam: l’importanza di una garanzia di scalabilità e costo definito dell’ infrastruttura senza vincoli di traffico e utilizzo. Demo Live di “Kasten k10” la soluzione di Backup e ripristino Kubernetes di Veeam, adatto alla protezione di applicazioni complesse che comprendono implementazioni containerizzate, native del cloud e basate su VM presso distribuzioni aziendali di grandi dimensioni.

                      Categorie
                      Blog

                      Il valore dell’integrità nel Data Management

                      Scopriamo cos’è la durabilità del dato, quanto è rilevante nel Data management e come può essere garantita da un’infrastruttura Cloud

                      In un contesto come quello attuale in cui i processi decisionali delle organizzazioni sono sempre più Data Driven, la disponibilità e l’accessibilità delle informazioni diventano dei fattori fondamentali per massimizzare la produttività, automatizzare i task e ottimizzare i flussi di lavoro. Questa considerazione ci permette di introdurre il concetto di durabilità del dato che nel Data management fa riferimento alle misure necessarie per assicurare l’integrità e la permanenza dei dati nel corso del tempo. La durabilità del dato è un aspetto di vitale importanza soprattutto per le applicazioni che gestiscono informazioni critiche o sensibili. Cioè quando è necessario adottare strumenti e soluzioni con cui proteggere i dati da qualsiasi evento ne possa causare l’alterazione inattesa, la corruzione, la perdita o l’obsolescenza.

                      Guasti del sistema, bug software, errori umani, disastri naturali, interruzioni di servizio o malfunzionamenti a carico dell’hardware sono solo alcuni degli incidenti che possono determinare l’inaccessibilità o l’indisponibilità dei dati.

                      Compila il form e contattaci!

















                        Cosa rende un dato “durabile” nel contesto di un’infrastruttura tecnica?

                        Definizione e importanza della durabilità del dato

                        Con la definizione di durabilità del dato ci si riferisce in primo luogo alla capacità di garantire la sicurezza e l’invariabilità nel tempo delle informazioni raccolte e gestite da un’organizzazione.

                        Il fatto che un dato “durabile” sia anche un dato “invariabile” non significa naturalmente che esso non possa essere analizzato, elaborato o aggiornato. Devono essere però evitate tutte le eventualità che potrebbero portare ad una sua manomissione. Ciò è particolarmente importante in applicazioni come i sistemi di archiviazione legale, la Blockchain o in ambiti di compliance, dove si deve garantire che i dati non siano stati alterati. Ecco perché i sistemi che gestiscono dati inalterabili utilizzano spesso soluzioni come gli hash crittografici e le firme digitali per certificarne l’integrità.

                        Durabilità e reversibilità del dato

                        A questo proposito è utile ricordare come il concetto di durabilità del dato sia fortemente connesso a quello di reversibilità del dato. Esso fa riferimento alla possibilità di riportare un dato al suo stato originale dopo che è stato elaborato o modificato. La reversibilità del dato è quindi particolarmente rilevante nell’ambito del Data Management perché consente di invertire o annullare operazioni eseguite a carico dei dati.

                        Un esempio di reversibilità del dato viene fornito dalla crittografia, in quanto un’informazione criptata può essere decifrata e riportata allo stato originale tramite l’utilizzo di una chiave. Nel Machine Learning, invece, la reversibilità può riferirsi alla capacità di ricostruire i dati di input a partire dagli output restituiti da un modello. Lo stesso discorso potrebbe essere fatto per le attività di versionig, con le quali vengono tracciate tutte le modifiche subite da un progetto, o per il rollback dei database transazionali, con la possibilità di annullare le modifiche apportate da una transazione che non sia stata portata a termine con successo.

                        Anche la reversibilità rappresenta quindi una caratteristica rilevante per la durabilità del dato. Il fatto di poter accedere al contenuto originale di un’informazione ne garantisce infatti la conservazione nel tempo.

                        Tecnologie e strategie per la durabilità del dato

                        La durabilità del dato viene garantita da diverse soluzioni che vanno dalla scelta del supporto di archiviazione più adatto ai sistemi di backup e ridondanza. Dalla gestione del ciclo di vita dei dati ai meccanismi per le verifiche di integrità. Tali misure possono essere implementate all’interno di un’infrastruttura on-premise, quindi localmente nel contesto di un’organizzazione, o tramite sistemi di archiviazione distribuiti e soluzioni Cloud based.

                        Nel primo caso tutta la complessità dell’infrastruttura viene gestita internamente. Si può scegliere tra SSD, NVMe o nastri magnetici per l’archiviazione di breve o lunga durata. Si può puntare su configurazioni RAID per prevenire perdite di dati. Si possono pianificare migrazioni periodiche e scegliere formati con cui prevenire l’obsolescenza dei dati. Ci si può occupare dei controlli di integrità tramite checksum e hash così come delle strategie di Data Recovery e Disaster Recovery. Tutti gli oneri relativi a mantenimento, aggiornamento, monitoraggio, continuità di servizio e sicurezza sono però a carico dell’organizzazione.

                        Durabilità del dato e infrastrutture Cloud

                        Rispetto alle configurazioni on-premise, le infrastrutture Cloud consentono di focalizzarsi sui processi di business più legati al Data management e alla conversione dei dati in valore.

                        Abbiamo già parlato di archiviazione, backup, ridondanza, data lifecycle management e controlli di integrità. Tutti aspetti che nel caso delle infrastrutture Cloud possono essere gestiti conciliando l’ottimizzazione e la scalabilità delle risorse con la durabilità dei dati. Vi sono però altri elementi che rendono questo tipo di soluzioni vantaggiose rispetto alle implementazioni in-house.

                        Replicazione dei dati in Cloud

                        Un primo beneficio è offerto ad esempio dalla replicazione de dati, grazie alla quale un servizio Cloud replica le informazioni archiviate in più Data Center collocati in aree geografiche differenti. Essa garantisce quindi che, in caso di guasti, disastri o calamità, i dati rimangano sempre accessibili e disponibili.

                        Normative e compliance

                        Un secondo aspetto di cui tenere conto è quello legato alla conformità dei sistemi di archiviazione, trattamento e protezione dei dati alla legislazione vigente. In ambito europeo, ad esempio, il GDPR (General Data Protection Regulation) prevede dei requisiti di compliance molto stringenti e sanzioni altrettanto severe in caso di violazioni. Anche in questo caso operare unicamente in locale potrebbe risultare complesso e dispendioso.

                        Quante aziende rinunciano ad archiviare alcuni dati riservati dei propri utenti, come per esempio i numeri di carta di credito, per via di limiti legati alla propria infrastruttura?
                        In quanti casi un’organizzazione si trova davanti all’onere di dover garantire il rispetto di standard internazionali e normative settoriali?

                        Rapporto costo-efficienza del Cloud

                        Un terzo aspetto di importanza rilevante riguarda il rapporto tra costo ed efficienza garantito dal Cloud. I modelli di tariffazione pay-per-use o pay-as-you-go consentono infatti di pagare esclusivamente per le risorse (spazio di archiviazione, CPU, memoria RAM) effettivamente utilizzate. Questo si traduce nella possibilità di scalare le risorse per fronteggiare picchi di traffico periodici o imprevisti, senza doverle preventivare con precisione e acquistarle in anticipo.

                        Compila il form e contattaci!

















                           

                          Categorie
                          Blog Senza categoria

                          Dati immutabili : cosa sono? I vantaggi dei dati inalterabili

                          Caratteristiche dei dati immutabili, ambiti di applicazione e importanza dei dati inalterabili per la sicurezza, la compliance e la continuità operativa

                          Per introdurre il concetto di dato immutabile è possibile formulare un esempio basato sul fascicolo sanitario elettronico di un paziente in cura presso il servizio sanitario nazionale. Questo documento contiene generalmente tutti i dati relativi ai referti medici, alle prescrizioni dei farmaci e all’eventuale cartella clinica ospedaliera, così come informazioni riguardanti i certificati vaccinali e le prestazioni erogate.

                          Le condizioni di salute di un individuo possono inoltre evolvere nel tempo. Diagnosi, terapie, trattamenti e guarigioni rappresentano quindi la sua storia clinica e ogni dato aggiuntivo è rilevante ma non sostituisce quelli registrati in precedenza. Abbiamo così una prima definizione di dato immutabile, cioè  un’informazione che non può (o non dovrebbe) essere alterata, sovrascritta o rimossa

                          Quello sanitario non è naturalmente l’unico contesto di applicazione dei dati immutabili. Questi ultimi sono impiegati anche nelle analisi di mercato, nel marketing, nella Fintech, in meteorologia e in qualsiasi ambito in cui sia possibile attualizzare il valore di dati storici.

                          Dati immutabili e database

                          Secondo un’impostazione tradizionale, in genere i database basati sul modello relazionale vengo progettati per ospitare dati mutabili. Se un nostro contatto cambia numero di telefono, non è necessario conservare l’informazione relativa a quello precedente e la si sovrascrivere con la registrazione del nuovo recapito.

                          Esistono dati che per loro natura non dovrebbero essere mutabili, come per esempio le date di nascita, ma possono essere gestiti anche con questo tipo di database perché, in assenza di alterazioni volontarie o accidentali, il rischio che vengano modificati è almeno teoricamente nullo, salvo la necessità di correzioni a seguito di inserimenti errati. Le basi di dati pensate per memorizzare dati immutabili sono però strutturate per consentire il confronto tra di essi e ciò implica che le informazioni archiviate lo siano in modo permanente nella loro forma originale. Senza eccezioni.

                          È appunto il caso dei dati sanitari ma anche un’azienda che deve rispettare determinati standard, si pensi a quelli previsti dalle normative sul trattamento dei dati personali, può avere necessità di dati immutabili con cui dimostrare la conformità nel tempo del proprio operato con i requisiti richiesti. Stesso discorso per quanto riguarda i log generati da un’applicazione, utili per le procedure di debugging, o per tutti i dati legati al controllo di gestione che possono essere utilizzati per l’auditing aziendale.

                          Dati immutabili e performance

                          I dati immutabili presentano dei vantaggi anche per quanto riguarda le performance in fase di allocazione e sono quindi una soluzione ottimale per la riduzione delle latenze.

                          Nel caso dei dati database progettati per dati mutabili le informazioni da sostituire devono essere identificate e rimosse per poi procedere con la registrazione dei nuovi dati e la verifica della loro integrità. Ciò richiede un dispendio di tempo che può diventare significativo nel caso in cui si debba gestire una quantità molto elevata di transazioni.

                          Un sistema destinato a raccogliere grandi volumi di dati e un flusso costante di informazioni, come per esempio quelle provenienti da sensori attraverso network di device IoT, può quindi operare in modo più efficace allocando dati immutabili in sequenza e associando ciascuno di essi ad una marca temporale che ne certifichi il momento della registrazione.

                          Dati immutabili e struttura dei database

                          Un classico database relazionale è strutturato in una o più tabelle popolate da record in cui sono archiviati i dati. Nei database progettati per i dati immutabili il concetto di record viene invece sostituito da quello di log, cioè il risultato della registrazione sequenziale e cronologica dei task eseguiti da un sistema.

                          Chiaramente un approccio del genere presenta anche degli svantaggi, per esempio il fatto che ogni nuovo log è in pratica un registro addizionale che necessita di spazio disco aggiuntivo. I dati preesistenti non possono essere aggiornati o eliminati, quindi ad ogni transazione corrisponde una quota di storage occupato.

                          Vi è poi da considerare il fatto che un database pensato per contenere dati immutabili può essere più complesso da gestire rispetto ad un comune struttura relazionale. Le più recenti normative sulla tutela della privacy impongono ad esempio che un dato personale debba essere cancellato dal titolare del trattamento su richiesta dell’interessato. A rigor di logica ciò non è possibile nel caso dei dati immutabili e anche per questo motivo si adottano sistemi di crittografia con cui cifrare le informazioni. Una volta rimossa o sovrascritta la chiave necessaria per decifrare un dato questo diventa indisponibile e inaccessibile.

                          Dati immutabili e infrastrutture Cloud

                          L’esempio citato in precedenza ci dimostra come anche alla maggiore complessità portata dai dati immutabili vi sia una soluzione. Ma torniamo al discorso riguardante il rapporto tra dati immutabili e spazio di allocazione: appare chiaro come le infrastrutture in grado di garantire un livello elevato di scalabilità delle risorse rappresentino un ambiente ideale per ospitare database organizzati in registri. Anche in questo caso abbiamo quindi una soluzione ai problemi di storage: le infrastrutture Cloud.

                          A differenza di quanto accade con un’infrastruttura on-premise che deve essere implementata, mantenuta e aggiornata localmente con tutte le rigidità che tale approccio potrebbe comportare, il Cloud offre una scalabilità virtualmente illimitata, consentendo di archiviare grandi quantità di informazioni senza preoccuparsi delle limitazioni legate allo spazio fisico disponibile.

                          Un provider Cloud, inoltre, fornisce in genere maggiori garanzie dal punto di vista della conservazione e della protezione dei dati e questi rimangono costantemente accessibili indipendentemente dal momento e dal luogo in cui viene effettuata una richiesta. Ciò si accompagna anche ad una riduzione degli investimenti in hardware e manutenzione, trasformando i costi fissi in costi variabili, più prevedibili e più gestibili.

                          I backup immutabili

                          I backup immutabili sono una garanzia di immutabilità del dato in quanto, una volta generati, non posso essere modificati. Non possono essere inoltre rimossi se non per decisione dell’utente o dell’organizzazione che li ha creati.

                          Questa caratteristica li rende delle soluzioni ideali per la protezione dei dati contro tentativi di violazione e per garantire l’integrità delle informazioni nel tempo.

                          Si pensi per esempio ad un attacco basato su un ransomware. Quest’ultimo potrebbe infatti crittografare tutti i dati presenti in un network rendendoli inaccessibili fino al pagamento del riscatto richiesto, ammesso che ciò sia sufficiente per entrare in possesso della necessaria chiave di decriptazione. L’immutable storage applicato ai backup permette invece di evitare che i dati possano essere alterati, garantendone la disponibilità anche in caso di attacchi su larga scala da parte di utenti malintenzionati. Un’intera rete potrebbe essere compromessa da un ransomware ma non i dati backup immutabili.

                          Nel caso in cui si dovessero verificare eventi avversi, come guasti a carico dell’hardware o cancellazioni intenzionali o involontarie, i backup immutabili rappresenterebbero una fonte affidabile per il recupero dei dati. Sono inoltre un riferimento per le attività di audit e la tracciabilità, in quanto forniscono una cronologia affidabile di eventi e processi, restituendone anche il contesto storico.

                          Richiedi la tua prova gratuita

                          Ehi! Stai già andando via?

                          Iscriviti alla nostra newsletter per restare aggiornato sulle novità dell’universo Criticalcase