Categorie
Blog Senza categoria

Dati immutabili : cosa sono? I vantaggi dei dati inalterabili

Caratteristiche dei dati immutabili, ambiti di applicazione e importanza dei dati inalterabili per la sicurezza, la compliance e la continuità operativa

Per introdurre il concetto di dato immutabile è possibile formulare un esempio basato sul fascicolo sanitario elettronico di un paziente in cura presso il servizio sanitario nazionale. Questo documento contiene generalmente tutti i dati relativi ai referti medici, alle prescrizioni dei farmaci e all’eventuale cartella clinica ospedaliera, così come informazioni riguardanti i certificati vaccinali e le prestazioni erogate.

Le condizioni di salute di un individuo possono inoltre evolvere nel tempo. Diagnosi, terapie, trattamenti e guarigioni rappresentano quindi la sua storia clinica e ogni dato aggiuntivo è rilevante ma non sostituisce quelli registrati in precedenza. Abbiamo così una prima definizione di dato immutabile, cioè  un’informazione che non può (o non dovrebbe) essere alterata, sovrascritta o rimossa

Quello sanitario non è naturalmente l’unico contesto di applicazione dei dati immutabili. Questi ultimi sono impiegati anche nelle analisi di mercato, nel marketing, nella Fintech, in meteorologia e in qualsiasi ambito in cui sia possibile attualizzare il valore di dati storici.

Dati immutabili e database

Secondo un’impostazione tradizionale, in genere i database basati sul modello relazionale vengo progettati per ospitare dati mutabili. Se un nostro contatto cambia numero di telefono, non è necessario conservare l’informazione relativa a quello precedente e la si sovrascrivere con la registrazione del nuovo recapito.

Esistono dati che per loro natura non dovrebbero essere mutabili, come per esempio le date di nascita, ma possono essere gestiti anche con questo tipo di database perché, in assenza di alterazioni volontarie o accidentali, il rischio che vengano modificati è almeno teoricamente nullo, salvo la necessità di correzioni a seguito di inserimenti errati. Le basi di dati pensate per memorizzare dati immutabili sono però strutturate per consentire il confronto tra di essi e ciò implica che le informazioni archiviate lo siano in modo permanente nella loro forma originale. Senza eccezioni.

È appunto il caso dei dati sanitari ma anche un’azienda che deve rispettare determinati standard, si pensi a quelli previsti dalle normative sul trattamento dei dati personali, può avere necessità di dati immutabili con cui dimostrare la conformità nel tempo del proprio operato con i requisiti richiesti. Stesso discorso per quanto riguarda i log generati da un’applicazione, utili per le procedure di debugging, o per tutti i dati legati al controllo di gestione che possono essere utilizzati per l’auditing aziendale.

Dati immutabili e performance

I dati immutabili presentano dei vantaggi anche per quanto riguarda le performance in fase di allocazione e sono quindi una soluzione ottimale per la riduzione delle latenze.

Nel caso dei dati database progettati per dati mutabili le informazioni da sostituire devono essere identificate e rimosse per poi procedere con la registrazione dei nuovi dati e la verifica della loro integrità. Ciò richiede un dispendio di tempo che può diventare significativo nel caso in cui si debba gestire una quantità molto elevata di transazioni.

Un sistema destinato a raccogliere grandi volumi di dati e un flusso costante di informazioni, come per esempio quelle provenienti da sensori attraverso network di device IoT, può quindi operare in modo più efficace allocando dati immutabili in sequenza e associando ciascuno di essi ad una marca temporale che ne certifichi il momento della registrazione.

Dati immutabili e struttura dei database

Un classico database relazionale è strutturato in una o più tabelle popolate da record in cui sono archiviati i dati. Nei database progettati per i dati immutabili il concetto di record viene invece sostituito da quello di log, cioè il risultato della registrazione sequenziale e cronologica dei task eseguiti da un sistema.

Chiaramente un approccio del genere presenta anche degli svantaggi, per esempio il fatto che ogni nuovo log è in pratica un registro addizionale che necessita di spazio disco aggiuntivo. I dati preesistenti non possono essere aggiornati o eliminati, quindi ad ogni transazione corrisponde una quota di storage occupato.

Vi è poi da considerare il fatto che un database pensato per contenere dati immutabili può essere più complesso da gestire rispetto ad un comune struttura relazionale. Le più recenti normative sulla tutela della privacy impongono ad esempio che un dato personale debba essere cancellato dal titolare del trattamento su richiesta dell’interessato. A rigor di logica ciò non è possibile nel caso dei dati immutabili e anche per questo motivo si adottano sistemi di crittografia con cui cifrare le informazioni. Una volta rimossa o sovrascritta la chiave necessaria per decifrare un dato questo diventa indisponibile e inaccessibile.

Dati immutabili e infrastrutture Cloud

L’esempio citato in precedenza ci dimostra come anche alla maggiore complessità portata dai dati immutabili vi sia una soluzione. Ma torniamo al discorso riguardante il rapporto tra dati immutabili e spazio di allocazione: appare chiaro come le infrastrutture in grado di garantire un livello elevato di scalabilità delle risorse rappresentino un ambiente ideale per ospitare database organizzati in registri. Anche in questo caso abbiamo quindi una soluzione ai problemi di storage: le infrastrutture Cloud.

A differenza di quanto accade con un’infrastruttura on-premise che deve essere implementata, mantenuta e aggiornata localmente con tutte le rigidità che tale approccio potrebbe comportare, il Cloud offre una scalabilità virtualmente illimitata, consentendo di archiviare grandi quantità di informazioni senza preoccuparsi delle limitazioni legate allo spazio fisico disponibile.

Un provider Cloud, inoltre, fornisce in genere maggiori garanzie dal punto di vista della conservazione e della protezione dei dati e questi rimangono costantemente accessibili indipendentemente dal momento e dal luogo in cui viene effettuata una richiesta. Ciò si accompagna anche ad una riduzione degli investimenti in hardware e manutenzione, trasformando i costi fissi in costi variabili, più prevedibili e più gestibili.

I backup immutabili

I backup immutabili sono una garanzia di immutabilità del dato in quanto, una volta generati, non posso essere modificati. Non possono essere inoltre rimossi se non per decisione dell’utente o dell’organizzazione che li ha creati.

Questa caratteristica li rende delle soluzioni ideali per la protezione dei dati contro tentativi di violazione e per garantire l’integrità delle informazioni nel tempo.

Si pensi per esempio ad un attacco basato su un ransomware. Quest’ultimo potrebbe infatti crittografare tutti i dati presenti in un network rendendoli inaccessibili fino al pagamento del riscatto richiesto, ammesso che ciò sia sufficiente per entrare in possesso della necessaria chiave di decriptazione. L’immutable storage applicato ai backup permette invece di evitare che i dati possano essere alterati, garantendone la disponibilità anche in caso di attacchi su larga scala da parte di utenti malintenzionati. Un’intera rete potrebbe essere compromessa da un ransomware ma non i dati backup immutabili.

Nel caso in cui si dovessero verificare eventi avversi, come guasti a carico dell’hardware o cancellazioni intenzionali o involontarie, i backup immutabili rappresenterebbero una fonte affidabile per il recupero dei dati. Sono inoltre un riferimento per le attività di audit e la tracciabilità, in quanto forniscono una cronologia affidabile di eventi e processi, restituendone anche il contesto storico.

Categorie
Blog

APM tool: monitorare le prestazioni per proteggere la UX

APM tool: monitorare le prestazioni per proteggere la UX

APM Tool

Gli APM tool (Application Performance Monitoring) sono strumenti che valutano le prestazioni di un software e, di conseguenza, la sua capacità di potenziare il business. Le aziende si stanno dotando di APM tool moderni poiché esiste un legame diretto tra le performance applicative, la qualità della user experience (UX) e i risultati di business. Un’applicazione veloce, sempre disponibile e reattiva migliora la UX e questa, a sua volta, aiuta il business attraendo nuovi clienti, fidelizzando quelli esistenti o, lato interno, facendo lavorare meglio le persone. La User Experience va “protetta”, e gli APM tool servono esattamente a questo.  

La centralità degli APM tool nel business moderno

Il monitoraggio, e la contestuale gestione, delle performance applicative (APM) ha dunque un impatto importante sull’andamento del business. Interessa in primis le software house, il cui prodotto deve rispettare determinati livelli di servizio, ma anche tutte le aziende che sviluppano software e applicativi a supporto dei processi interni o dei servizi che mettono a disposizione dei clienti. Se poi parliamo di siti web, di eCommerce o di servizi erogati via web, le performance applicative rappresentano anche un fattore di ranking per Google, e quindi sono doppiamente fondamentali per il successo del business. 

I tool APM sono diventati centrali non solo per il loro impatto sulla UX, ma anche per l’aumento di complessità architetturale delle applicazioni, che di fatto ha reso obsoleti tanti strumenti vincolati alle metriche di base e a un modo ormai superato di creare e gestire il software. Oggi, agli APM tool si chiede un’analisi approfondita dell’applicazione, del codice, dei servizi (micro) e delle molteplici dipendenze che determinano il carattere fortemente modulare del software moderno. 

Come funziona un APM tool

Come anticipato, l’obiettivo dei tool di Application Performance Monitoring (che rientrano nell’ambito più ampio dell’Application Performance Management) è di garantire che le prestazioni delle applicazioni critiche siano tali da favorire il business dell’azienda.

In primis, gli APM tool servono a identificare i problemi a livello prestazionale. E questo avviene, appunto, mediante il monitoraggio, l’alerting, la visibilità sulle cause di performance inadeguate e l’eventuale remediation automatica o manuale.

Gli APM tool si basano su agent implementati all’interno dell’infrastruttura e dell’ambiente applicativo, il cui compito è rilevare continuamente metriche prestazionali, effettuare correlazioni e analisi, facendo confluire il tutto in dashboard sintetiche. L’azienda definisce gli indicatori di interesse e le soglie (baseline), superate le quali gli alert eseguono attività specifiche o richiamano l’attenzione del personale tecnico.

Gli APM tool possono quindi osservare in modo sistemico tutti i fattori che condizionano le performance applicative: dal monitoraggio dei database a quello dell’intero stack applicativo, che comprende i sistemi operativi, le API, i web server, i middleware e i framework, nonché tutta l’infrastruttura a supporto. Qui possono essere valutate le performance di rete, il carico delle CPU nel tempo e l’occupazione delle risorse di storage. Al di là di potenziali problematiche di natura infrastrutturale, il monitoraggio dello stack applicativo consente di effettuare un vero e proprio tracciamento a livello di codice, ovvero di associare performance sottosoglia al codice che le ha generate, così da identificare prontamente eventuali colli di bottiglia e agire in modo sartoriale. Un aspetto interessante degli APM tool è proprio quello dell’efficienza: essi consentono di identificare aree lacunose e di risolverle prontamente, abbattendo tempi e costi.

Non da ultimo, un elemento molto interessante degli APM tool è la capacità di tracciare le transazioni partendo dall’interfaccia utente fino ad ogni componente e risorsa coinvolta. Questo non soltanto rafforza la capacità dell’IT di agire rapidamente sulle cause di eventuali problemi, ma consente di mappare in modo efficace tutte le dipendenze su cui si basano le applicazioni moderne, cosa quanto mai significativa in un’era contraddistinta da un netto incremento in termini di complessità.  

APM tool per monitorare la User Experience

Si è già detto che gli APM tool hanno un impatto positivo sull’esperienza vissuta da chi usa l’app. In realtà, però, il rapporto tra APM tool e UX non è di semplice causa-effetto: gli APM tool sono infatti in grado di monitorare la UX creando un link tra gli aspetti tecnici dell’applicazione e la sua concreta fruizione.

Non a caso, secondo una survey firmata Gartner, l’end-user experience monitoring (EUM) è la dimensione più critica di un APM tool per il 46% degli intervistati. Il monitoraggio dell’esperienza dell’utente può essere sintetico (via script) o un real-user measurement, ovvero un monitoraggio passivo delle azioni effettuate concretamente dall’utente, con contestuale rilevazione di metriche di performance applicativa. Questo tipo di monitoraggio determina svariati benefici, poiché lega la performance tecnica alla qualità della user experience e permette alle imprese di capire la causa di certi comportamenti: a titolo d’esempio, l’azienda può comprendere se un eccessivo abbandono dei carrelli (eCommerce) sia dovuto a un rallentamento delle performance del processo d’acquisto o, più semplicemente, a un’interfaccia migliorabile.   

In questo percorso, non si può sottovalutare il ruolo delle tecniche moderne di analisi (Analytics) e dell’Intelligenza Artificiale, che può donare un approccio predittivo alle rilevazioni e automatizzare i task ripetitivi. 

APM tool e il ruolo di Criticalcase

Nulla vieta alle aziende di adottare un APM tool a supporto del proprio parco applicativo e, di conseguenza, del proprio business. Tuttavia, non tutte le imprese dispongono delle competenze tecniche necessarie per ricavarne valore tangibile. Un partner dedicato, inoltre, può adottare l’APM tool più adeguato e personalizzarlo in funzione delle esigenze aziendali, gestendo poi il tutto come un vero e proprio managed service.

In quest’ambito, Criticalcase è in grado di miscelare esperienza, competenze specialistiche e asset tecnologici, con il fine di migliorare le performance applicative dei Clienti e di potenziare il business che si basa su di esse.

Sempre a proposito di performance, ma con un focus sull’infrastruttura di distribuzione dei contenuti web, abbiamo realizzato recentemente un White Paper sulle strategie Multi-CDN, che consentono alle imprese di raggiungere in modo rapido e veloce utenti/clienti in tutto il mondo. Visto che anche questo aspetto ha un impatto importante sulle performance di business, ti consigliamo di scaricare il documento e, per qualsiasi informazione, di contattarci direttamente  

Mai far aspettare i clienti online: passa subito a una Multi-CDN!

Perché, come e quando usarla per il tuo business online.

Add a date

White paper

Categorie
Blog

Criticalcase Sponsor all’ AWS Summit

Criticalcase sarà sponsor all' AWS Summit di Milano

Il 22 Giugno si terrà a Milano, presso l’Allianz MiCo – Milano Convention Centre, l’AWS SUMMIT dove Criticalcase sarà presente come Sponsor.

Durante l’evento dedicato ai servizi Cloud di Amazon Web Services (AWS) incontrerete e conoscerete i componenti del nostro Digital Solutions Core Team con i quali potrete toccare svariati argomenti:

Servizio full managed per la gestione e mitigazione degli attacchi che sfruttano il layer applicativo. La soluzione si basa su un’architettura estremamente evoluta che adotta i principali servizi AWS per la sicurezza, la gestione e correlazione dei log e la notifica e aggiornamento automatico delle “security rules”. 

I servizi di Gestione Operativa e di Incident Response di Criticalcase, completano la soluzione mantenendo la piattaforma aggiornata e rispondendo prontamente in caso di attacchi.

Il traffico “malevolo” e non, viene monitorato e mostrato tramite una dashboard estremamente completa, che permette di correlare e visualizzare gli attacchi sotto diversi aspetti, al fine di effettuare un’efficace attività di Incident Response H27x7.  

Il Cliente può concentrarsi sul proprio business mentre noi ci occupiamo della completa gestione operativa dell’infrastruttura Cloud e relativi servizi.

Il modello di Operation Management di Criticalcase tiene conto non solo della consueta gestione operativa su base ITIL, ma soprattutto delle complessità e tipicità introdotte dal Cloud, come ad esempio:

  • Cost Management
  • Performance Management
  • Asset & Service Management
  • Security, Problem & Incident Management H27x7
  • Multicloud Management
  • Change & Configuration Management

Una Cloud adoption matura significa utilizzare a pieno i servizi messi a disposizione dal public Cloud con l’obiettivo di ottenere sicurezza, performance, affidabilità e scalabilità. I principali pattern delle soluzioni Cloud Native fanno dunque uso di containerizzazione, servizi serverless, servizi PaaS/SaaS e più in generale di automazione (DevOps/CI/CD).

Criticalcase supporta i propri Clienti nell’individuare ed implementare il modello di Cloud Adoption più corretto attraverso la scelta delle soluzioni architetturali Cloud Native più adatte all’esigenza del Cliente, minimizzando anche complessità inutile e il platform lockin.     

 

Per noi il mondo dell’ IoT si traduce nel creare un’offerta al cliente basata su soluzioni end to end che rispondando al problema/esigenza/pain del cliente. Come ad esempio servizi che permettano di migliorare le prestazioni e/o la produttività dei processi industriali. Durante l’evento sarà presente una demo sviluppata dal nostro Team, dove potrete vedere in Real Time un’esempio su come poter migliorare questi processi.

Il nostro valore aggiunto è quello di mettere a disposizione soluzioni con best practices collaudate e sicure scegliendo i servizi cloud più adatti.

Per venire a conoscerci e a incontrarci registratevi gratuitamente all’evento cliccando QUI oppure potrete CONTATTARCI per ogni tipo di approfondimento in merito.

Perché quantificare i costi del passaggio al cloud può rivelarsi difficile?

Scopri come gestire al meglio la tua piattaforma cloud ed evita extra budget indesiderati!

Add a date

White paper

Categorie
Blog

Consulenza cloud: cosa aspettarti da Criticalcase

Consulenza cloud: cosa aspettarti da Criticalcase

In Italia, c’è grande bisogno di servizi di consulenza cloud. Nonostante il clima macroeconomico d’incertezza, sono sempre di più le imprese che puntano su infrastrutture e piattaforme cloud per supportare la propria trasformazione digitale e diventare sempre più agili e innovative. Lo conferma l’Osservatorio Cloud Transformation, che nel 2022 ha quantificato in 4,5 miliardi di euro la spesa complessiva delle imprese italiane in servizi cloud, con un +18% rispetto all’anno precedente. 

Soprattutto, l’evoluzione verso il cloud si è ormai affermata in ogni tipologia di impresa: nonostante le enterprise continuino a guidare il percorso, oggi il 52% delle PMI adotta almeno un servizio cloud, con un incremento del 7% rispetto al 2021.

Consulenza cloud: necessaria per un journey di successo

Il valore della consulenza cloud nasce dalla complessità insita nel tema e, soprattutto, dal suo ruolo strategico per la competitività delle imprese.

Nonostante molte PMI stiano già adottando servizi SaaS a supporto dell’operatività quotidiana e dei nuovi modelli di lavoro, il journey to cloud è un percorso di modernizzazione profonda dei sistemi informativi aziendali, e, come tale, va guidato da esperienza, competenze specialistiche e asset dedicati. Non si tratta, in altri termini, di adottare qualche nuovo applicativo SaaS o semplicemente di portare in cloud le proprie applicazioni secondo un approccio lift & shift, ma di modernizzare l’impianto tecnologico aziendale rendendolo più resiliente, capace di sfruttare tecnologie innovative (AI, Machine Learning…), flessibile, aperto all’innovazione e in grado di alimentare nuovi di business su cui l’azienda imposta la propria crescita.

Criticalcase e i benefici dell’approccio end-to-end

Affidarsi a Criticalcase significa poter contare su un unico partner, fidato e di esperienza, per tutto il percorso evolutivo dei sistemi informativi verso il cloud.

Non esiste, in quest’ambito, un approccio standardizzato: ogni azienda ha le sue peculiarità, il suo modello di business e operativo, le proprie esigenze in termini di agilità e compliance, nonché un certo livello di maturità digitale che il cloud tende naturalmente a far evolvere. Soprattutto, ogni azienda vuole raggiungere certi obiettivi con l’adozione del cloud, siano questi l’efficientamento dei processi o la razionalizzazione dei costi, ma senza dimenticare l’adozione di tecnologie next-gen a supporto della differenziazione competitiva e di nuove modalità di lavoro, che a loro volta creano produttività ed engagement.

La raccolta dei requisiti è centrale, così come l’assessment volto a definire lo stato dell’arte dei sistemi informativi e delle applicazioni adottate quotidianamente dall’azienda. Tutto ciò porta a progettare un modello cloud corretto in funzione delle esigenze manifestate e, soprattutto, a definire una roadmap di modernizzazione dei sistemi. A tal fine, Criticalcase introduce un corretto mix di competenze nell’ambito delle soluzioni cloud, grande esperienza al fianco di imprese con modelli organizzativi complessi e infrastrutture proprietarie di primo piano, come i Data Center certificati Tier III. Segue l’implementazione del progetto e la successiva gestione h24 in funzione di livelli di servizio fissati contrattualmente.

Criticalcase può inoltre erogare svariati servizi a supporto delle performance dei sistemi: gestione dei costi (per approfondire vai al White Paper dedicato al cloud cost management), monitoring delle infrastrutture, servizi finalizzati alla business continuity, attività di gestione dei registri (log management) a fini di compliance, troubleshooting e massimizzazione delle prestazioni, oltre all’acquisizione e all’analisi delle metriche di performance delle applicazioni (APM), così da renderle sempre in linea con le esigenze del business. Da non trascurare, infine, i servizi di sicurezza gestita, fondamentali in un’era in cui il rischio cyber aumenta di giorno in giorno.

Affidarsi a Criticalcase significa dunque poter contare, all’interno di un percorso complesso, su un approccio end-to-end, che copre ogni fase del progetto e sfocia in servizi continuativi a beneficio della sicurezza, conformità, efficienza e prestazioni del comparto tecnologico aziendale, su cui le aziende moderne costruiscono il proprio futuro.

Un incidente che compromette i sistemi aziendali o un attacco mirato possono mettere in ginocchio un’impresa.

Scopri come rendere la tua impresa più sicura, agile e resiliente!

Add a date

White paper

Categorie
Blog

Costi Cloud, come ottimizzarli davvero?

Costi Cloud, come ottimizzarli davvero?

costi cloud

Il cloud è il principale abilitatore di trasformazione digitale ed è adottato dalla stragrande maggioranza delle imprese. Per quanto l’opportunità sia nota ai più, resta da comprendere – caso per caso – come le aziende possano ottimizzare i costi del cloud per evitare che vengano meno i concetti di efficienza e convenienza rispetto al modello on-premise. L’ottimizzazione dei costi, inoltre, consente alle imprese di liberare risorse e di allocarle su altre attività progettuali, stimolando l’innovazione e favorendo la competitività.  

Costi Cloud: un tema complesso e in continuo divenire

Perché il tema dei costi cloud è così centrale e di tendenza al tempo stesso? La flessibilità del modello cloud e le logiche pay-per-use (o as-a-service), che di fatto allineano la spesa all’effettivo utilizzo delle risorse e dei servizi del provider, rendono piuttosto complesso preventivare i costi e quindi comprendere, rispetto al modello in-house tradizionale, se esista e quanto sia marcata la convenienza sul versante economico.

Inoltre, sul tema dei costi cloud incide anche la complessità delle architetture enterprise contemporanee, pressoché tutte ibride e basate sull’orchestrazione di servizi di provider diversi (multicloud). Prezzi differenti, listini che cambiano di continuo, modalità di tariffazione ad hoc e più fatture da gestire non semplificano il quadro, imponendo un onere extra anche per il comparto amministrativo e finanziario dell’azienda.

Non da ultimo, il successo dei modelli ibridi comporta il mantenimento di determinati costi di manutenzione e aggiornamento dell’infrastruttura interna, a meno che – per la componente privata – non si opti per un cloud hosted nell’infrastruttura IT di un partner dedicato.

Governare al meglio il tema dei costi cloud

Ridurre i costi cloud e realizzare un vero vantaggio rispetto al paradigma on-premise è certamente possibile, ma a patto di inquadrare e governare bene la situazione d’insieme. Ciò significa almeno due aspetti:

  • avere una chiara consapevolezza dei costi dell’infrastruttura esistente e dell’andamento delle spese degli ultimi anni;
  • conoscere perfettamente le voci di costo del cloud e i moltissimi fattori e servizi che, se tenuti fuori dai canoni predefiniti, possono incidere in modo determinante sulla spesa complessiva.

In sede di migrazione verso il cloud, è auspicabile partire da un esame delle risorse attuali, così da comprenderne il reale utilizzo e stimare le configurazioni cloud di cui si avrà bisogno per gestire i workload in produzione. Va poi considerato il costo della migrazione, che in un modello enterprise potrebbe non essere indifferente, quello legato alla formazione del personale (non solo IT) e, non da ultimo, quello relativo alla scalabilità delle risorse cloud.

La scalabilità nativa è una delle caratteristiche di massimo pregio del cloud e gli dona una flessibilità sconosciuta ai modelli tradizionali. Tuttavia, miscelando la scalabilità virtualmente illimitata e il modello pay per use può scaturire una vera e propria moltiplicazione dei costi e, soprattutto, la totale perdita di controllo sugli stessi.

La soluzione consiste nel pianificare correttamente le risorse e accordarsi con il/i provider per quanto concerne l’eventuale aggiunta di risorse o servizi, onde evitare spiacevoli sorprese. Se c’è una conoscenza completa dello sfaccettato universo dei costi cloud, sta poi all’azienda definire con il provider un contratto di servizio il più semplice e chiaro possibile, che gestisca tutti gli elementi di costo (anche quelli nascosti) e li allinei con i budget e gli obiettivi aziendali.

Criticalcase e l’ottimizzazione dei costi cloud

Non sempre le imprese possono contare su competenze specializzate nel controllo e l’ottimizzazione dei costi delle infrastrutture cloud. Ma tutte ne avrebbero bisogno.

Per questo motivo, assume rilevanza strategica il servizio di Cloud Cost Management di Criticalcase, basato su framework di riconosciuta efficacia e finalizzato, appunto, all’ottimizzazione dei costi del cloud in funzione delle esigenze di ogni impresa.

Semplificando, il framework si compone di una fase di pianificazione, comprensiva di obiettivi e requisiti, per poi passare all’assessment dell’architettura, all’analisi dei costi con censimento dei servizi utilizzati, alla loro riduzione e ottimizzazione attraverso misure tecniche come il ridimensionando delle macchine o modifiche architetturali delle applicazioni. Il tutto, assistito da competenze e tool dedicati.

Il tema dei costi cloud è prioritario. Per questo, abbiamo realizzato un White Paper che approfondisce i temi di questo articolo e spiega l’approccio giusto da adottare. Vi consigliamo di scaricarlo, ed eventualmente di contattarci per ogni approfondimento in merito.

Perché quantificare i costi del passaggio al cloud può rivelarsi difficile?

Scopri come gestire al meglio la tua piattaforma cloud ed evita extra budget indesiderati!

Add a date

White paper

Categorie
Blog

Business continuity service: come riconoscere un partner eccellente

Business continuity service: come riconoscere un partner eccellente

Shutterstock_455762422

Tempo addietro, Gartner fornì una stima del costo del downtime per una grande azienda. Pur mettendo in conto inevitabili oscillazioni tra un caso e l’altro, gli analisti giunsero alla conclusione che un solo minuto di interruzione dell’operatività potesse costare 5.600 dollari. Per questo, una corretta strategia di business continuity e di mitigazione del rischio è essenziale nelle attività economiche moderne.

Business Continuity Service: di cosa si tratta

Data la necessità di essere resilienti di fronte a molteplici fonti di rischio, tra cui molte legate all’infrastruttura tecnologica, sempre più aziende si affidano a un business continuity service. In altri termini, si rivolgono a un partner esterno con competenze ad hoc per definire in modo strategico e operativo il piano di continuità aziendale.

Il business continuity plan (BCP) non ha la stessa valenza operativa di un disaster recovery, ma è una pianificazione di alto livello di tutti i rischi cui l’azienda è soggetta, con contestuale formulazione di piani di risposta finalizzati a non interrompere l’operatività anche di fronte a eventi imprevisti come il guasto a un server, un’alluvione, un blackout, un calo di tensione o un terremoto.

L’importanza dell’analisi e dell’approccio strategico

Chi offre un business continuity service si concentra di solito sugli aspetti tecnologici della propria offerta: le certifiche dei data center di cui si avvale, i livelli di servizio e il tipo di assistenza offerta.

Non c’è dubbio che la parte tecnologica sia fondamentale, ma ciò che contraddistingue i migliori business continuity services è la capacità di analizzare il rischio con precisione e competenza, traducendo l’esito delle analisi in una strategia personalizzata che tenga in considerazione le caratteristiche distintive di ogni azienda e di ogni processo.

Quando si tratta di processi core, è di solito necessaria una continuità assoluta, per quanto questo comporti definire strategie ad hoc, con asset dedicati e costi solitamente elevati. D’altra parte, i processi che non incidono direttamente sul business possono essere gestiti con altre strategie e a costi inferiori. La vera abilità del partner sta nell’analizzare la situazione in modo olistico, rilevare i sistemi coinvolti e identificare soluzioni efficaci a tutela dei vari processi.

Business continuity o disaster recovery?

In quest’ambito, è importante sottolineare la differenza tra un business continuity service, il disaster recovery e il backup, che di fatto sono elementi della strategia di cui sopra e devono essere attentamente bilanciati per garantire la continuità dei processi.

In altri termini, backup e disaster recovery fanno parte del business continuity service e vanno declinati in funzione delle esigenze di ogni processo. La ricerca della continuità assoluta per tutti i processi aziendali non è un’opzione efficiente: se è vero che le comunicazioni e i pagamenti (a titolo d’esempio) non devono mai interrompersi, in molti casi è possibile tollerare una breve interruzione di un sistema dipartimentale (CRM…) senza che ciò abbia un impatto diretto sui risultati di business.

L’approccio Criticalcase alla business continuity

Criticalcase vuole essere il partner fidato con cui rafforzare il business, non soltanto in termini di performance, ma anche di resilienza.

I nostri business continuity service si basano su un mix coerente di competenze specialistiche, su asset robusti come il network di data center proprietari certificati Tier III e su partnership tecnologiche con i principali Vendor di soluzioni enterprise per il backup e il disaster recovery.

Soprattutto, l’azienda è in grado di indirizzare il Cliente verso il corretto bilanciamento tra la protezione del processo e il costo della business continuity, che ogni azienda è tenuta a ottimizzare. Il risultato è un partner in grado di gestire a 360 gradi il tema della business resilience, sia a livello strategico che con soluzioni solide, moderne ed efficienti a tutela del presente e del futuro del business.

Infine, ma non per importanza, suggeriamo di scaricare e consultare il nostro White Paper sul tema della protezione degli asset e dei sistemi nell’era del cloud. Nel documento, approfondiamo le sfide del business moderno, spieghiamo come affrontarle e proponiamo il cloud come soluzione per un business resiliente e di successo.

Un incidente che compromette i sistemi aziendali o un attacco mirato possono mettere in ginocchio un’impresa.

Scopri come rendere la tua impresa più sicura, agile e resiliente!

Add a date

White paper

Categorie
Blog

Managed service security: perché è la via più efficace per la sicurezza

Managed service security: perché è la via più efficace per la sicurezza

Managed services security

La velocità e il dinamismo del business reclamano supporti digitali disponibili subito e soprattutto sicuri, condizioni difficilmente ottenibili senza il ricorso ai servizi di managed services security. L’evoluzione continua delle minacce cyber in circolazione e la necessità di monitorare con più attenzione ciò che accade su sistemi e reti, per poter reagire prontamente agli attacchi, costituiscono una sfida difficile per le imprese.

Sfida che richiede la disponibilità di personale con competenze specialistiche nella security, pronto ad aggiornarsi in modo continuo su nuove minacce e misure di protezione. Personale pronto a intervenire nelle situazioni d’attacco, che tipicamente avvengono di notte e nei fine settimana, incompatibili con le risorse delle imprese medie e piccole, bersaglio privilegiato del cybercrime. Carenze facilmente affrontabili con servizi di managed service security.

Managed service security al servizio delle imprese

Nell’ambito dei tanti servizi gestiti che sono reperibili sul mercato, che spaziano dall’outsourcing IT al cloud infrastrutturale fino alle applicazioni online, i managed services security hanno caratteristiche molto specifiche, da non confondere con le gestioni di commodity normalmente incluse nei package di servizi. Il fornitore di managed service security mette a disposizione dell’azienda cliente competenze e strutture specifiche per la difesa dell’infrastruttura informativa.

La risorsa più importante che caratterizza i managed services security provider è il SOC (security operation center) ossia la disponibilità di un centro operativo, funzionante su base 24x7x365, da cui erogare in tempo reale servizi di sicurezza attraverso agenti software e attuatori installati sulle reti e sistemi del cliente. Nel SOC i tecnici esperti sono continuamente aggiornati sulle minacce circolanti in rete a livello globale e sui metodi efficaci per bloccarle.

Attraverso monitoraggio dei flussi di rete e degli allarmi inviati dai sistemi aziendali, vengono rilevati intrusioni, accessi anomali a dati e applicazioni, circolazione di malware ed exploit di vulnerabilità ed effettuati gli interventi di salvaguardia quali, per esempio, l’isolamento dalla rete dei sistemi compromessi o la riprogrammazione dei firewall per bloccare gli attacchi di denial of services (DoS) su servizi in rete.   

L’esperienza del provider al servizio della security d’impresa

Oltre alle capacità di gestione, i fornitori di managed service security mettono a disposizione del cliente la consulenza necessaria per migliorare la security di infrastrutture complesse, che comprendono reti, storage, sistemi fissi, mobili e servizi in cloud di vendor diversi. Sono offerti gli assessment delle tipologie di rischio a cui l’azienda è esposta, per esempio, per l’utilizzo del lavoro da remoto, delle connessioni digitali con partner nell’ambito della supply chain o per l’interesse dei cyber criminali verso le informazioni trattate.

Si affiancano i servizi di vulnerability assesment, per conoscere il livello di robustezza offerto dal codice applicativo in uso e i penetration test con cui hacker etici professionisti mettono alla prova le loro abilità contro le difese già approntate. Stabilita l’appropriatezza dei sistemi di protezione è possibile programmare gli aggiornamenti nel tempo e garantire una gestione efficace in accordo con gli SLA d’intervento prestabiliti.

In sintesi, un provider di managed service security deve avere le competenze per garantire innanzitutto la sicurezza infrastrutturale in ambienti ibridi on-premise e di cloud (per approfondimenti suggeriamo la lettura del white paper “Sicurezza e resilienza delle infrastrutture IT”). Deve saper individuare e risolvere le vulnerabilità del software applicativo o che si nascondono nei gap d’interconnessione tra differenti componenti di servizio. Deve inoltre possedere l’esperienza per saper valutare i livelli di rischio negli specifici ambienti di business e l’autorevolezza per intervenire su processi che hanno al centro le persone. Competenze che Criticalcase ha sviluppato in oltre vent’anni di attività internazionale come high availability service provider, con soluzioni su misura per ogni tipologia d’impresa.

La cyber-resilienza è un modello che riunisce i processi di business continuity, pratiche di data security, resilienza organizzativa e offre una soluzione efficace e concreta al crimine informatico.

Add a date

White paper

Categorie
Blog

Cyber resilience: quando un’azienda lo è davvero?

Cyber resilience: quando un’azienda lo è davvero?

cyber resilience

L’evoluzione delle minacce rende oggi impossibile disporre di protezioni durature contro gli attacchi informatici facendo crescere la necessità di adottare approcci più organici, orientati alla cyber resilience. Al di là della capacità di dispiegare mezzi tecnici aggiornati per difendere reti, dati e sistemi aziendali, la cyber resilience richiede competenze e l’adozione di pratiche che spaziano dalla business continuity, alla data security, passando per la formazione delle persone.

5 aspetti che rendono un’azienda cyber resiliente

Come puoi approfondire nel white paper “Sicurezza e resilienza delle infrastrutture IT”, la capacità di resistere agli attacchi generalizzati oppure mirati del cybercrime deve comprende le pratiche utili per garantire la resilienza organizzativa, minimizzare i rischi di fermo operativo e di perdita di dati con ciò che ne può conseguire a livello di danni economici e reputazionali verso clienti, fornitori e partner commerciali. Vediamo di seguito, in sintesi, le cinque aree d’impegno per la cyber resilience aziendale.

☑ Gli assesment periodici del rischio

Per la cyber resilience serve innanzitutto fare assessment periodici del rischio per avere piena conoscenza delle vulnerabilità aziendali in funzione dell’emergere di nuove minacce, ma anche dei cambiamenti che avvengono continuamente in azienda in seguito all’introduzione di nuovi sistemi, applicazioni, processi o dell’organizzazione. Va da sé che serva aggiornare di conseguenza i piani d’intervento per essere pronti a reagire in caso d’attacco.

☑ L’adeguamento delle protezioni su reti e sistemi

La conoscenza dei rischi deve guidare l’adeguamento delle linee di difesa: dalle policy dei firewall a protezione della rete, ai software antivirus/antimalware e di endpoint protection sui sistemi.

La cyber resilience si avvantaggia inoltre di strumenti capaci di rilevare, segnalare, bloccare automaticamente attività sospette, quali gli intrusion detection system e i security information and event management. Le connessioni di rete che escono dal perimetro aziendale vanno opportunamente protette con VPN e crittografia.

☑ Aggiornamenti del software applicativo e dei sistemi d’accesso

Altro punto importante per la cyber resilience è l’utilizzo di software aggiornati, cosa più facile a dirsi che a farsi in presenza di ambienti legacy o applicazioni mal documentate che fanno uso di librerie open source, nelle quali possono essere presenti vulnerabilità già note, sfruttabili dagli attaccanti.

Nelle situazioni in cui le applicazioni aziendali devono aprirsi a utenti esterni, integrarsi con il cloud e siti online devono essere rivisti sistemi di directory e protezione degli accessi.

☑ La tutela dei dati aziendali importanti e critici

I dati sono linfa vitale del business, l’indisponibilità va evitata in ogni modo attraverso l’impiego della sincronizzazione remota, del backup e del disaster recovery, metodi resi più accessibili grazie ai servizi erogati in cloud.

Pur difendendo l’azienda da minacce gravi, come il ransomware, non garantiscono dalle perdite d’informazioni sensibili per il business o per la privacy delle persone. La cyber resilience richiede il monitoraggio continuo di reti e sistemi, unitamente alla capacità di rilevare i data-leak per fermarli rapidamente e adempiere agli obblighi di legge (es. GDPR) per non incorrere in pesanti sanzioni.

☑ La formazione degli utenti e del personale tecnico

Il social engineering è una tra le insidie di security tra le più insidiose perché consente ai cyber criminali di superare le difese digitali migliori, sfruttando l’ingenuità delle persone e la conoscenza dei processi informali in uso.

La cyber resilience richiede che tutti gli utenti aziendali siano a conoscenza delle buone pratiche di sicurezza, per esempio, non aprendo i link o gli allegati e-mail sospette o non usino password banali o replicate identiche su account diversi, non aziendali. Allo stesso modo, è importante la formazione continua di amministratori IT e security manager sull’evoluzione delle minacce e, in mancanza di professionalità adatte, affidarsi a partner esterni in grado di garantire sia le competenze sia le risorse per reagire prontamente a un attacco.

La cyber-resilienza è un modello che riunisce i processi di business continuity, pratiche di data security, resilienza organizzativa e offre una soluzione efficace e concreta al crimine informatico.

Add a date

White paper

Categorie
Blog

SASE, perché scegliere la security distribuita in cloud

SASE, perché scegliere la security distribuita in cloud

sase

Gli effetti della pandemia in primo luogo e, successivamente, il tentativo di contenere i consumi energetici hanno imposto alle aziende continui adattamenti, dando impulso alle metodologie di lavoro a distanza (Fonte: INAPP). 

In questo scenario, sono emerse una serie di misure volte alla sicurezza del perimetro informatico e di una forza lavoro distribuita, in grado di proteggere da attacchi indesiderati e da intromissioni nelle comunicazioni. Tra le soluzioni disponibili, le implementazioni necessarie, le procedure e i protocolli da adottare per poter sanare le eventuali falle e poter lavorare in sicurezza, spicca l’architettura SASE.

Fonte: Statista

L’architettura Secure Access Service Edge: obiettivo resilienza

I primi promotori dell’approccio Secure Access Service Edge sono stati, nel 2019, i professionisti di Gartner, società di consulenza conosciuta a livello internazionale.

Alla base dell’architettura SASE troviamo soluzioni cloud based, ove tutte le funzioni adottate sono ottimizzate per cercare di raggiungere un adeguato livello di cyber-resilienza.

Come accennato, infatti, l’aumento degli utenti collegati da remoto, che fruiscono di applicazioni SaaS aziendali, genera un intenso flusso di dati dal data center ai servizi cloud, imponendo la necessità di adottare un nuovo approccio alla sicurezza di rete.

Se volessimo raffigurare il sistema SASE, in un modo da comprenderne la dinamica, sceglieremmo il modello hub and spoke, ossia un sistema di gestione e sviluppo delle reti nel quale le connessioni si realizzano, con uno schema simile a una ruota della bicicletta, dallo spoke («raggio») verso l’hub («perno») e viceversa.

I 6 principali benefici del modello SASE

Il modello SASE comporta molti vantaggi in termini di fruibilità e protezione, adattandosi alle esigenze di organizzazioni complesse, che, difatti, lo scelgono innanzitutto per semplificare la gestione della sicurezza:

Fonte: Statista

Volendo stilare un elenco con i principali benefici, questi di seguito possono essere considerati i 6 plus del Secure Access Service Edge:

  1. Prevenzione delle minacce: la soluzione SASE abilita un sistema di controllo totale dei contenuti che transitano in una rete.
  2. Protezione dei dati: l’implementazione di un framework SASE aiuta a integrare nell’organizzazione politiche di protezione dei dati favorendo un approccio di security by design, in ottemperanza alle leggi e ai regolamenti in materia di protezione dei dati, prevenendo l’accesso non autorizzato e la sottrazione di dati.
  3. Flessibilità di utilizzo: con un’infrastruttura basata sul cloud, è possibile implementare e fornire servizi di sicurezza come prevenzione delle minacce, filtraggio web, sicurezza DNS, prevenzione del furto di credenziali e policy firewall di nuova generazione, senza dimenticarsi che la fruibilità di un’infrastruttura cloud riesce a rendere massimo l’accesso ai sistem
  4. Complessità ridotta: consolidando i parametri di sicurezza in un’infrastruttura cloud si riducono drasticamente i sistemi di sicurezza da controllare all’interno del perimetro aziendale.
  5. Zero Trust: un approccio Zero Trust presuppone una rigorosa verifica di ogni utente e dispositivo che si connette. Una soluzione SASE riesce a fornire una protezione completa della sessione, indipendentemente dal fatto che l’utente si trovi all’interno o all’esterno della rete aziendale.
  6. Risparmio sui costi: invece di acquistare e gestire più prodotti puntuali, l’utilizzo di un’unica piattaforma riesce a ridurre notevolmente i costi e le risorse IT in gioco.

Tecnologia SASE, implementazioni

Partendo dai concetti sopra esposti e cercando di concretizzare le implementazioni fattibili all’interno di una strategia SASE, è necessario essere in grado di fornire soluzioni integrate, che passano da tecnologie SD-WAN in grado di semplificare il networking WAN attraverso il controllo centralizzato dell’hardware o del software di rete, che indirizza il traffico attraverso la WAN. Tale soluzione consente, inoltre, alle organizzazioni di combinare o sostituire le classiche connessioni WAN private con connessioni Internet a banda larga, LTE e/o 5g.  

L’amministratore di sistema decide quindi le policy e assegna le priorità, ottimizza e instrada il traffico WAN, selezionando il collegamento e il percorso migliori in modo dinamico per ottimizzare le prestazioni.

Altre soluzioni sono fattibili ed è possibile ottenere ottimi risultati con firewall di nuova generazione NGFW, che combinano un firewall tradizionale con altre funzioni di sicurezza e networking orientate al data center virtualizzato. Le funzioni di sicurezza includono:

  • il controllo delle applicazioni,
  • l’ispezione approfondita e crittografata delle informazioni,
  • la prevenzione delle intrusioni,
  • il filtraggio dei siti Web,
  • l’anti-malware,
  • la gestione delle identità,
  • l’intelligence sulle minacce
  • la qualità del servizio WAN
  • la gestione della larghezza di banda.

Insomma, una serie di soluzioni e di implementazioni che Criticalcase è in grado di predisporre per far fronte a queste nuove esigenze che, nate come emergenziali, stanno sempre più diventando la base per lavorare in sicurezza ogni giorno.

Perché quantificare i costi del passaggio al cloud può rivelarsi difficile?

Scopri come gestire al meglio la tua piattaforma cloud ed evita extra budget indesiderati!

20 Gennaio 2023

White paper

Categorie
Blog

Migliora la user experience nell’eCommerce, dalla sicurezza alle performance

Migliora la user experience nell'eCommerce, dalla sicurezza alle performance

user experience ecommerce

Perché le imprese dovrebbero indirizzare gli investimenti verso il miglioramento della user experience dell’eCommerce? E come farlo? Alla prima domanda si può rispondere con un elenco di statistiche utili a comprendere quanto sia diretta la connessione tra la UX e il successo commerciale dell’eCommerce, indipendentemente dal settore e dalle dimensioni dell’impresa. Le più eloquenti sono:

  • Il 40% dei visitatori abbandona la pagina se il tempo di caricamento è superiore ai 3 secondi (Neil Patel); 
  • I tassi di conversione calano del 4,42% ogni secondo di attesa (entro i primi 5). (Hubspot); 
  • Il 70% dei consumatori sostiene che i tempi di caricamento delle pagine abbiano un impatto diretto sulla propensione all’acquisto (Hubspot).

Come si può notare dalle statistiche, tra tutti gli ambiti che determinano la UX, le performance del sito occupano una posizione centrale.  

User experience eCommerce: da cosa dipende?

L’obiettivo dell’online shopper è di per sé piuttosto lineare. Vuole trovare velocemente ciò che sta cercando oppure, nei casi più evoluti, essere indirizzato verso la scelta migliore; vuole avere sott’occhio tutti gli elementi a supporto della sua decisione d’acquisto; vuole completare l’acquisto in modo rapido e fluido, senza complessità che potrebbero ricordargli la confusione e le code in punto vendita.  

È palese che, di fronte a esigenze comprensibili e lineari, la risposta debba essere sinergica tra le performance del sito e il design dell’eCommerce, i suoi contenuti e tutto l’universo della customer experience.

Dal punto di vista delle performance eCommerce, l’elemento fondante è la Page Speed, ovvero il tempo che intercorre tra la richiesta e la visualizzazione del risultato nel browser del potenziale cliente. Page Speed è un concetto che non include solo la latenza del server ma è più ampio, poiché comprende anche i tempi di trasmissione di tutti i contenuti (codice, immagini…), che incidono sulla user experience eCommerce. Volendo approfondire, la Page Speed può essere poi “scomposta” in ulteriori elementi di performance come il Time to First Byte (che identifica l’effettiva latenza), i tempi di rendering e la rapidità di trasferimento (banda).  

Come migliorare le performance dell’eCommerce

Migliorare i parametri di cui sopra richiede un approccio sistemico e impone alle aziende di rivolgersi a provider in grado di ottimizzare l’esperienza dell’utente finale grazie ad asset, competenze e partnership.

L’infrastruttura deve essere estremamente flessibile e scalabile per poter gestire al meglio i picchi di traffico (si pensi al Black Friday o a una promozione ad hoc); inoltre, la piattaforma deve garantire altissimi livelli di disponibilità per evitare i downtime, che si abbattono come una scure sul fatturato.  

DNS veloci, server ad altissime prestazioni e un network CDN performante sono gli ingredienti di una ricetta che il provider deve creare su misura in funzione della piattaforma eCommerce scelta, delle esigenze di traffico e, cosa tutt’altro che secondaria, dell’ubicazione dei clienti. Una strategia Multi-CDN può essere vincente per gli eCommerce dal target fortemente internazionale. Logicamente, sulle performance incidono anche fattori intrinseci dello shop online (e quindi ottimizzabili), come le dimensioni dei contenuti e la quantità di richieste http.

eCommerce, UX e il tema della sicurezza

Sicurezza e performance vanno di pari passo. Se per sicurezza intendiamo la business continuity, la soluzione deve basarsi su un’infrastruttura flessibile e ridondata, che possa garantire livelli di servizio sfidanti. I network CDN, dal canto loro, offrono una protezione nativa contro minacce esterne come gli attacchi DDoS, che possono paralizzare un eCommerce proprio nel momento della promozione o della festività ad alto potenziale commerciale.

Tema parimenti importante è quello della protezione dei dati dei clienti, poiché nessuno acquista da uno shop online che non è in grado di proteggere i propri dati personali. Si va quindi oltre il tema della user experience eCommerce, poiché, in questo caso, la reputazione del brand e la fiducia del cliente non possono essere ripristinate solo con la velocità di caricamento delle pagine o con processi d’acquisto ottimizzati.

Per proteggere il proprio eCommerce, è necessario adottare una serie di approcci, metodologie e strumenti moderni contro attacchi quali phishing, SQL injection, DDoS e Man in the Middle, giusto per citare i più comuni. Si entra quindi nel terreno degli approcci Zero Trust, della crittografia su tutte le pagine del sito, dell’autenticazione a due fattori, dei vulnerability scan, dei Web Application Firewall (WAF) e di tutte quelle misure, proattive o reattive, dedicate proprio a bilanciare la protezione del sito con l’esigenza di garantire una user experience fluida e appagante 

Mai far aspettare i clienti online: passa subito a una Multi-CDN!

Perché, come e quando usarla per il tuo business online.

7 Novembre 2022

White paper

Richiedi la tua prova gratuita

Ehi! Stai già andando via?

Iscriviti alla nostra newsletter per restare aggiornato sulle novità dell’universo Criticalcase