Categorie
Blog

Criticalcase comincia alla grande il 2025 con l’acquisizione di Resò

Siamo entusiasti di annunciare l’acquisizione di Resò Srl, la società con sede a Chivasso, è un player consolidato nel settore dei servizi infrastrutturali, con una solida esperienza nel mercato della Grande Distribuzione Organizzata (GDO). Questo passo segna una nuova tappa importante nel nostro percorso di crescita e integrazione. 

Le Competenze di Resò: Un Valore Aggiunto per il Gruppo

Resò porta con sé una vasta esperienza nel mondo della GDO, grazie alla collaborazione con aziende di spicco del settore. Le sue tre principali aree di attività sono:

  • NOC (Network Operation Center): Con circa 30.000 sensori monitorati, Resò gestisce un presidio attivo 7 giorni su 7 garantendo la continuità operativa dei sistemi.
  • Gestione Datacenter: un centro elaborazione dati con circa 15 rack, assicurando l’efficienza e la sicurezza delle infrastrutture
  • Supporto alla GDO: Ad oggi Resò è responsabile dell’installazione e manutenzione dell’infrastruttura informatica per oltre 130 punti vendita, contribuendo a mantenere la rete sempre funzionante.

Il Piano di Integrazione: Sostenibilità e Crescita

Le parole del CEO, Luca Nunno:

“Stiamo lavorando per integrare al meglio Resò all’interno della nostra struttura; per facilitare il processo, abbiamo identificato due aree tecniche principali nella nostra organizzazione: Infrastruttura, gestita da Andrea Beccari, e Supporto & Progetti, sotto la guida di Giorgio Milanesio. Una delle prime direzioni da esplorare è l’integrazione del NOC Resò con l’area di supporto, in modo da consolidare le risorse e rendere ancora più strutturata l’area. Un altro obiettivo è allineare la gestione del datacenter già in gestione di Resò, agli standard infrastrutturali che già seguiamo, mentre l’attività di manutenzione e Installazioni dei punti vendita resterà sotto la supervisione di Fabrizio Laurella.

Il Futuro del Supporto Critico: H24 e Sinergia Internazionale

Un obiettivo ambizioso che si sta portando avanti è la creazione di un supporto H24 ancora più reattivo e performante. L’integrazione del NOC con l’area di supporto di Criticalcase ci darebbe l’opportunità di rafforzare il nostro team, rendendolo ancora più strutturato; stiamo lavorando per costruire una sinergia tra le nostre squadre per garantire una copertura globale e sempre attiva.

Con l’acquisizione di Resò,  Criticalcase apre le porte a nuove opportunità di crescita e innovazione. L’integrazione delle competenze di Resò permetterà di ampliare il raggio d’azione e di offrire soluzioni sempre più efficienti nel mondo dell’ infrastruttura e del supporto tecnico. Non vediamo l’ora di scoprire dove ci porterà questo viaggio!

Compila il form e contattaci!

















    Categorie
    Blog

    Cloud Smart Check di CriticalCase: assessment di Sicurezza, Cost Management e Performance per le infrastrutture Cloud

    Uno dei maggiori trend degli ultimi anni in ambito aziendale è stata la sempre più evidente migrazione delle infrastrutture IT da configurazioni on-premise, quindi sviluppate on-site, al Cloud.

    Le ragioni di questa tendenza sono ormai note: perché gestire localmente gli aspetti legati a complessità tecnica, performance, manutenzione, aggiornamenti, business continuity e sicurezza quando è possibile delegarli a dei partner affidabili? La possibilità di contenere gli investimenti e di spostare il focus sulla produttività rendono poi il Cloud un’alternativa ancora più cost effective. Questo però non significa che le infrastrutture basate su di esso debbano essere escluse da un processo di ottimizzazione costante.

    Per soddisfare questa particolare esigenza entra in gioco una soluzione come Cloud Smart Check di CriticalCase che permette di operare una valutazione degli aspetti legati a sicurezza, gestione dei costi e prestazioni appositamente dedicata alle infrastrutture Cloud.

    Cos’è Cloud Smart Check di CriticalCase

    Le infrastrutture Cloud sono in grado di offrire un ambiente sicuro, performante e usabile per velocizzare il deploy e il delivery di piattaforme e applicazioni. Nel tempo però l’accumularsi di configurazioni, servizi e attività non in linea con le best practice possono tradursi in un decadimento delle prestazioni e in un inatteso incremento dei costi. Tale condizione viene inoltre aggravata da deadline sempre più stringenti che portano a privilegiare il timing su ogni altro aspetto.

    Cloud Smart Check di CriticalCase entra quindi in gioco come assessment  in grado di restituire un’immagine fedele dello stato di salute di un’architettura. Permette infatti di valutarne i livelli di sicurezza, costi ed efficienza tramite una procedura automatizzata.

    Dall’analisi all’ottimizzazione delle infrastrutture Cloud

    Le verifiche effettuate da Cloud Smart Check consentono di ottenere un report di sintesi con cui accedere ad un’istantanea dello stato corrente di una subscription. Ciò permette di evidenziare tutte le criticità e gli asset potenzialmente ottimizzabili.

    A questa fase ne segue un’altra dove CriticalCase mette a disposizione il suo team di specialisti che, dopo aver fornito una spiegazione dettaglia dei risultati contenuti nel report, rilevano e indicano gli aspetti che necessitano di essere approfonditi, le possibili soluzioni e gli elementi utili per l’elaborazione di una strategia con cui ridurre al minimo il verificarsi delle anomalie, anche nel medio e lungo periodo.

    Ma come vengono analizzati gli aspetti chiave per l’ottimizzazione di un’infrastruttura? Come vengono individuate le soluzioni più efficaci?

    Sicurezza

    Cloud Smart Check parte da una valutazione dei rischi con cui identificare vulnerabilità e potenziali minacce. Audit di sicurezza e test eseguiti con regolarità sono infatti fondamentali per la tutela costante dell’infrastruttura. Nello stesso modo lo è un controllo degli accessi basato su strategie di IAM (Identity and Access Management) che permetta l’accesso alle risorse al solo personale autorizzato.

    L’assessment consente inoltre di verificare l’impiego o meno di protocolli di sicurezza aggiornati, quindi meno suscettibili di violazioni, permettendo anche di definire un sistema di monitoraggio contro qualsiasi attività sospetta e un piano per l’incident response e la mitigazione di eventuali danni.

    Cost Management

    L’analisi dei costi delle risorse Cloud operata grazie a Cloud Smart Check di CriticalCase consente di individuare sia le spese ricorrenti che quelle non necessarie in un’ottica di ottimizzazione degli investimenti. Ad essere ottimizzate sono quindi anche le risorse, e i relativi costi, massimizzando i benefici che derivano dalla scalabilità.

    Le aziende hanno così una maggiore facilità nel programmare i budget e prevedere l’entità della spesa, ciò si traduce in una minimizzazione degli sforamenti che diventano evitabili tramite il monitoraggio in tempo reale dei consumi.

    Efficienza e prestazioni

    Il successo di un’infrastruttura Cloud dipende in gran parte dalla sua capacità di garantire performance elevate. Per questa ragione diventa fondamentale avvalersi di soluzioni in grado di monitorare e analizzare le prestazioni di applicazioni e risorse.

    Ciò è possibile anche tramite un’analisi attenta delle dipendenze tra le applicazioni stesse, questo con lo scopo di evitare conflitti nell’accesso alle risorse e colli di bottiglia in grado di pesare sul regolare andamento delle esecuzioni in fase di deploy.

    In ambiente Cloud l’efficienza è strettamente legata alla scalabilità delle risorse che devono essere sempre disponibili e commisurate alla domanda. L’opportunità di testare diverse modalità di scaling, sia orizzontalmente (scale out) che verticalmente (scale up), permette di pianificare strategie, come il ridimensionamento automatico, in grado di bilanciare correttamente consumi e prestazioni. 

    La user experience ha infine un ruolo fondamentale nella valutazione di livelli di efficienza. Elaborare efficacemente i feedback permette di rilevare le criticità più tempestivamente e con un maggior grado di accuratezza. Con la possibilità di intervenire in modo preciso sugli aspetti potenzialmente migliorabili della UX.

    Che si tratti di servizi Cloud mal configurati, datati o utilizzati per scopi differenti da quelli previsti come di pattern architetturali implementati in modo scorretto, Cloud Smart Check consente di accedere a soluzioni pratiche per operare sempre su infrastrutture ottimizzate.

    Compila il form e contattaci!

















      Conclusioni

      Security, gestione dei costi e performance. Questi sono i tre pilastri di Cloud Smart Check, L’assessment di CriticalCase integrato per la protezione dei dati, il contenimento dei costi, la massimizzazione delle prestazioni e l’ottimizzazione della UX. Con un servizio altamente qualificato di monitoraggio 24/7 e la gestione di incidenti, CricalCase propone una revisione periodica delle aree critiche permettendo a qualsiasi progetto di evolvere nel tempo, adattarsi ai cambiamenti tecnologici e personalizzare soluzioni Cloud alle esigenze aziendali.

      Categorie
      Blog Senza categoria

      Dati immutabili : cosa sono? I vantaggi dei dati inalterabili

      Caratteristiche dei dati immutabili, ambiti di applicazione e importanza dei dati inalterabili per la sicurezza, la compliance e la continuità operativa

      Per introdurre il concetto di dato immutabile è possibile formulare un esempio basato sul fascicolo sanitario elettronico di un paziente in cura presso il servizio sanitario nazionale. Questo documento contiene generalmente tutti i dati relativi ai referti medici, alle prescrizioni dei farmaci e all’eventuale cartella clinica ospedaliera, così come informazioni riguardanti i certificati vaccinali e le prestazioni erogate.

      Le condizioni di salute di un individuo possono inoltre evolvere nel tempo. Diagnosi, terapie, trattamenti e guarigioni rappresentano quindi la sua storia clinica e ogni dato aggiuntivo è rilevante ma non sostituisce quelli registrati in precedenza. Abbiamo così una prima definizione di dato immutabile, cioè  un’informazione che non può (o non dovrebbe) essere alterata, sovrascritta o rimossa

      Quello sanitario non è naturalmente l’unico contesto di applicazione dei dati immutabili. Questi ultimi sono impiegati anche nelle analisi di mercato, nel marketing, nella Fintech, in meteorologia e in qualsiasi ambito in cui sia possibile attualizzare il valore di dati storici.

      Dati immutabili e database

      Secondo un’impostazione tradizionale, in genere i database basati sul modello relazionale vengo progettati per ospitare dati mutabili. Se un nostro contatto cambia numero di telefono, non è necessario conservare l’informazione relativa a quello precedente e la si sovrascrivere con la registrazione del nuovo recapito.

      Esistono dati che per loro natura non dovrebbero essere mutabili, come per esempio le date di nascita, ma possono essere gestiti anche con questo tipo di database perché, in assenza di alterazioni volontarie o accidentali, il rischio che vengano modificati è almeno teoricamente nullo, salvo la necessità di correzioni a seguito di inserimenti errati. Le basi di dati pensate per memorizzare dati immutabili sono però strutturate per consentire il confronto tra di essi e ciò implica che le informazioni archiviate lo siano in modo permanente nella loro forma originale. Senza eccezioni.

      È appunto il caso dei dati sanitari ma anche un’azienda che deve rispettare determinati standard, si pensi a quelli previsti dalle normative sul trattamento dei dati personali, può avere necessità di dati immutabili con cui dimostrare la conformità nel tempo del proprio operato con i requisiti richiesti. Stesso discorso per quanto riguarda i log generati da un’applicazione, utili per le procedure di debugging, o per tutti i dati legati al controllo di gestione che possono essere utilizzati per l’auditing aziendale.

      Dati immutabili e performance

      I dati immutabili presentano dei vantaggi anche per quanto riguarda le performance in fase di allocazione e sono quindi una soluzione ottimale per la riduzione delle latenze.

      Nel caso dei dati database progettati per dati mutabili le informazioni da sostituire devono essere identificate e rimosse per poi procedere con la registrazione dei nuovi dati e la verifica della loro integrità. Ciò richiede un dispendio di tempo che può diventare significativo nel caso in cui si debba gestire una quantità molto elevata di transazioni.

      Un sistema destinato a raccogliere grandi volumi di dati e un flusso costante di informazioni, come per esempio quelle provenienti da sensori attraverso network di device IoT, può quindi operare in modo più efficace allocando dati immutabili in sequenza e associando ciascuno di essi ad una marca temporale che ne certifichi il momento della registrazione.

      Dati immutabili e struttura dei database

      Un classico database relazionale è strutturato in una o più tabelle popolate da record in cui sono archiviati i dati. Nei database progettati per i dati immutabili il concetto di record viene invece sostituito da quello di log, cioè il risultato della registrazione sequenziale e cronologica dei task eseguiti da un sistema.

      Chiaramente un approccio del genere presenta anche degli svantaggi, per esempio il fatto che ogni nuovo log è in pratica un registro addizionale che necessita di spazio disco aggiuntivo. I dati preesistenti non possono essere aggiornati o eliminati, quindi ad ogni transazione corrisponde una quota di storage occupato.

      Vi è poi da considerare il fatto che un database pensato per contenere dati immutabili può essere più complesso da gestire rispetto ad un comune struttura relazionale. Le più recenti normative sulla tutela della privacy impongono ad esempio che un dato personale debba essere cancellato dal titolare del trattamento su richiesta dell’interessato. A rigor di logica ciò non è possibile nel caso dei dati immutabili e anche per questo motivo si adottano sistemi di crittografia con cui cifrare le informazioni. Una volta rimossa o sovrascritta la chiave necessaria per decifrare un dato questo diventa indisponibile e inaccessibile.

      Dati immutabili e infrastrutture Cloud

      L’esempio citato in precedenza ci dimostra come anche alla maggiore complessità portata dai dati immutabili vi sia una soluzione. Ma torniamo al discorso riguardante il rapporto tra dati immutabili e spazio di allocazione: appare chiaro come le infrastrutture in grado di garantire un livello elevato di scalabilità delle risorse rappresentino un ambiente ideale per ospitare database organizzati in registri. Anche in questo caso abbiamo quindi una soluzione ai problemi di storage: le infrastrutture Cloud.

      A differenza di quanto accade con un’infrastruttura on-premise che deve essere implementata, mantenuta e aggiornata localmente con tutte le rigidità che tale approccio potrebbe comportare, il Cloud offre una scalabilità virtualmente illimitata, consentendo di archiviare grandi quantità di informazioni senza preoccuparsi delle limitazioni legate allo spazio fisico disponibile.

      Un provider Cloud, inoltre, fornisce in genere maggiori garanzie dal punto di vista della conservazione e della protezione dei dati e questi rimangono costantemente accessibili indipendentemente dal momento e dal luogo in cui viene effettuata una richiesta. Ciò si accompagna anche ad una riduzione degli investimenti in hardware e manutenzione, trasformando i costi fissi in costi variabili, più prevedibili e più gestibili.

      I backup immutabili

      I backup immutabili sono una garanzia di immutabilità del dato in quanto, una volta generati, non posso essere modificati. Non possono essere inoltre rimossi se non per decisione dell’utente o dell’organizzazione che li ha creati.

      Questa caratteristica li rende delle soluzioni ideali per la protezione dei dati contro tentativi di violazione e per garantire l’integrità delle informazioni nel tempo.

      Si pensi per esempio ad un attacco basato su un ransomware. Quest’ultimo potrebbe infatti crittografare tutti i dati presenti in un network rendendoli inaccessibili fino al pagamento del riscatto richiesto, ammesso che ciò sia sufficiente per entrare in possesso della necessaria chiave di decriptazione. L’immutable storage applicato ai backup permette invece di evitare che i dati possano essere alterati, garantendone la disponibilità anche in caso di attacchi su larga scala da parte di utenti malintenzionati. Un’intera rete potrebbe essere compromessa da un ransomware ma non i dati backup immutabili.

      Nel caso in cui si dovessero verificare eventi avversi, come guasti a carico dell’hardware o cancellazioni intenzionali o involontarie, i backup immutabili rappresenterebbero una fonte affidabile per il recupero dei dati. Sono inoltre un riferimento per le attività di audit e la tracciabilità, in quanto forniscono una cronologia affidabile di eventi e processi, restituendone anche il contesto storico.

      Categorie
      Blog

      Criticalcase Sponsor all’ AWS Summit

      Criticalcase sarà sponsor all' AWS Summit di Milano

      Il 22 Giugno si terrà a Milano, presso l’Allianz MiCo – Milano Convention Centre, l’AWS SUMMIT dove Criticalcase sarà presente come Sponsor.

      Durante l’evento dedicato ai servizi Cloud di Amazon Web Services (AWS) incontrerete e conoscerete i componenti del nostro Digital Solutions Core Team con i quali potrete toccare svariati argomenti:

      Servizio full managed per la gestione e mitigazione degli attacchi che sfruttano il layer applicativo. La soluzione si basa su un’architettura estremamente evoluta che adotta i principali servizi AWS per la sicurezza, la gestione e correlazione dei log e la notifica e aggiornamento automatico delle “security rules”. 

      I servizi di Gestione Operativa e di Incident Response di Criticalcase, completano la soluzione mantenendo la piattaforma aggiornata e rispondendo prontamente in caso di attacchi.

      Il traffico “malevolo” e non, viene monitorato e mostrato tramite una dashboard estremamente completa, che permette di correlare e visualizzare gli attacchi sotto diversi aspetti, al fine di effettuare un’efficace attività di Incident Response H27x7.  

      Il Cliente può concentrarsi sul proprio business mentre noi ci occupiamo della completa gestione operativa dell’infrastruttura Cloud e relativi servizi.

      Il modello di Operation Management di Criticalcase tiene conto non solo della consueta gestione operativa su base ITIL, ma soprattutto delle complessità e tipicità introdotte dal Cloud, come ad esempio:

      • Cost Management
      • Performance Management
      • Asset & Service Management
      • Security, Problem & Incident Management H27x7
      • Multicloud Management
      • Change & Configuration Management

      Una Cloud adoption matura significa utilizzare a pieno i servizi messi a disposizione dal public Cloud con l’obiettivo di ottenere sicurezza, performance, affidabilità e scalabilità. I principali pattern delle soluzioni Cloud Native fanno dunque uso di containerizzazione, servizi serverless, servizi PaaS/SaaS e più in generale di automazione (DevOps/CI/CD).

      Criticalcase supporta i propri Clienti nell’individuare ed implementare il modello di Cloud Adoption più corretto attraverso la scelta delle soluzioni architetturali Cloud Native più adatte all’esigenza del Cliente, minimizzando anche complessità inutile e il platform lockin.     

       

      Per noi il mondo dell’ IoT si traduce nel creare un’offerta al cliente basata su soluzioni end to end che rispondando al problema/esigenza/pain del cliente. Come ad esempio servizi che permettano di migliorare le prestazioni e/o la produttività dei processi industriali. Durante l’evento sarà presente una demo sviluppata dal nostro Team, dove potrete vedere in Real Time un’esempio su come poter migliorare questi processi.

      Il nostro valore aggiunto è quello di mettere a disposizione soluzioni con best practices collaudate e sicure scegliendo i servizi cloud più adatti.

      Per venire a conoscerci e a incontrarci registratevi gratuitamente all’evento cliccando QUI oppure potrete CONTATTARCI per ogni tipo di approfondimento in merito.

      Perché quantificare i costi del passaggio al cloud può rivelarsi difficile?

      Scopri come gestire al meglio la tua piattaforma cloud ed evita extra budget indesiderati!

      Add a date

      White paper

      Categorie
      Blog

      Consulenza cloud: cosa aspettarti da Criticalcase

      Consulenza cloud: cosa aspettarti da Criticalcase

      In Italia, c’è grande bisogno di servizi di consulenza cloud. Nonostante il clima macroeconomico d’incertezza, sono sempre di più le imprese che puntano su infrastrutture e piattaforme cloud per supportare la propria trasformazione digitale e diventare sempre più agili e innovative. Lo conferma l’Osservatorio Cloud Transformation, che nel 2022 ha quantificato in 4,5 miliardi di euro la spesa complessiva delle imprese italiane in servizi cloud, con un +18% rispetto all’anno precedente. 

      Soprattutto, l’evoluzione verso il cloud si è ormai affermata in ogni tipologia di impresa: nonostante le enterprise continuino a guidare il percorso, oggi il 52% delle PMI adotta almeno un servizio cloud, con un incremento del 7% rispetto al 2021.

      Consulenza cloud: necessaria per un journey di successo

      Il valore della consulenza cloud nasce dalla complessità insita nel tema e, soprattutto, dal suo ruolo strategico per la competitività delle imprese.

      Nonostante molte PMI stiano già adottando servizi SaaS a supporto dell’operatività quotidiana e dei nuovi modelli di lavoro, il journey to cloud è un percorso di modernizzazione profonda dei sistemi informativi aziendali, e, come tale, va guidato da esperienza, competenze specialistiche e asset dedicati. Non si tratta, in altri termini, di adottare qualche nuovo applicativo SaaS o semplicemente di portare in cloud le proprie applicazioni secondo un approccio lift & shift, ma di modernizzare l’impianto tecnologico aziendale rendendolo più resiliente, capace di sfruttare tecnologie innovative (AI, Machine Learning…), flessibile, aperto all’innovazione e in grado di alimentare nuovi di business su cui l’azienda imposta la propria crescita.

      Criticalcase e i benefici dell’approccio end-to-end

      Affidarsi a Criticalcase significa poter contare su un unico partner, fidato e di esperienza, per tutto il percorso evolutivo dei sistemi informativi verso il cloud.

      Non esiste, in quest’ambito, un approccio standardizzato: ogni azienda ha le sue peculiarità, il suo modello di business e operativo, le proprie esigenze in termini di agilità e compliance, nonché un certo livello di maturità digitale che il cloud tende naturalmente a far evolvere. Soprattutto, ogni azienda vuole raggiungere certi obiettivi con l’adozione del cloud, siano questi l’efficientamento dei processi o la razionalizzazione dei costi, ma senza dimenticare l’adozione di tecnologie next-gen a supporto della differenziazione competitiva e di nuove modalità di lavoro, che a loro volta creano produttività ed engagement.

      La raccolta dei requisiti è centrale, così come l’assessment volto a definire lo stato dell’arte dei sistemi informativi e delle applicazioni adottate quotidianamente dall’azienda. Tutto ciò porta a progettare un modello cloud corretto in funzione delle esigenze manifestate e, soprattutto, a definire una roadmap di modernizzazione dei sistemi. A tal fine, Criticalcase introduce un corretto mix di competenze nell’ambito delle soluzioni cloud, grande esperienza al fianco di imprese con modelli organizzativi complessi e infrastrutture proprietarie di primo piano, come i Data Center certificati Tier III. Segue l’implementazione del progetto e la successiva gestione h24 in funzione di livelli di servizio fissati contrattualmente.

      Criticalcase può inoltre erogare svariati servizi a supporto delle performance dei sistemi: gestione dei costi (per approfondire vai al White Paper dedicato al cloud cost management), monitoring delle infrastrutture, servizi finalizzati alla business continuity, attività di gestione dei registri (log management) a fini di compliance, troubleshooting e massimizzazione delle prestazioni, oltre all’acquisizione e all’analisi delle metriche di performance delle applicazioni (APM), così da renderle sempre in linea con le esigenze del business. Da non trascurare, infine, i servizi di sicurezza gestita, fondamentali in un’era in cui il rischio cyber aumenta di giorno in giorno.

      Affidarsi a Criticalcase significa dunque poter contare, all’interno di un percorso complesso, su un approccio end-to-end, che copre ogni fase del progetto e sfocia in servizi continuativi a beneficio della sicurezza, conformità, efficienza e prestazioni del comparto tecnologico aziendale, su cui le aziende moderne costruiscono il proprio futuro.

      Un incidente che compromette i sistemi aziendali o un attacco mirato possono mettere in ginocchio un’impresa.

      Scopri come rendere la tua impresa più sicura, agile e resiliente!

      Add a date

      White paper

      Categorie
      Blog

      Costi Cloud, come ottimizzarli davvero?

      Costi Cloud, come ottimizzarli davvero?

      costi cloud

      Il cloud è il principale abilitatore di trasformazione digitale ed è adottato dalla stragrande maggioranza delle imprese. Per quanto l’opportunità sia nota ai più, resta da comprendere – caso per caso – come le aziende possano ottimizzare i costi del cloud per evitare che vengano meno i concetti di efficienza e convenienza rispetto al modello on-premise. L’ottimizzazione dei costi, inoltre, consente alle imprese di liberare risorse e di allocarle su altre attività progettuali, stimolando l’innovazione e favorendo la competitività.  

      Costi Cloud: un tema complesso e in continuo divenire

      Perché il tema dei costi cloud è così centrale e di tendenza al tempo stesso? La flessibilità del modello cloud e le logiche pay-per-use (o as-a-service), che di fatto allineano la spesa all’effettivo utilizzo delle risorse e dei servizi del provider, rendono piuttosto complesso preventivare i costi e quindi comprendere, rispetto al modello in-house tradizionale, se esista e quanto sia marcata la convenienza sul versante economico.

      Inoltre, sul tema dei costi cloud incide anche la complessità delle architetture enterprise contemporanee, pressoché tutte ibride e basate sull’orchestrazione di servizi di provider diversi (multicloud). Prezzi differenti, listini che cambiano di continuo, modalità di tariffazione ad hoc e più fatture da gestire non semplificano il quadro, imponendo un onere extra anche per il comparto amministrativo e finanziario dell’azienda.

      Non da ultimo, il successo dei modelli ibridi comporta il mantenimento di determinati costi di manutenzione e aggiornamento dell’infrastruttura interna, a meno che – per la componente privata – non si opti per un cloud hosted nell’infrastruttura IT di un partner dedicato.

      Governare al meglio il tema dei costi cloud

      Ridurre i costi cloud e realizzare un vero vantaggio rispetto al paradigma on-premise è certamente possibile, ma a patto di inquadrare e governare bene la situazione d’insieme. Ciò significa almeno due aspetti:

      • avere una chiara consapevolezza dei costi dell’infrastruttura esistente e dell’andamento delle spese degli ultimi anni;
      • conoscere perfettamente le voci di costo del cloud e i moltissimi fattori e servizi che, se tenuti fuori dai canoni predefiniti, possono incidere in modo determinante sulla spesa complessiva.

      In sede di migrazione verso il cloud, è auspicabile partire da un esame delle risorse attuali, così da comprenderne il reale utilizzo e stimare le configurazioni cloud di cui si avrà bisogno per gestire i workload in produzione. Va poi considerato il costo della migrazione, che in un modello enterprise potrebbe non essere indifferente, quello legato alla formazione del personale (non solo IT) e, non da ultimo, quello relativo alla scalabilità delle risorse cloud.

      La scalabilità nativa è una delle caratteristiche di massimo pregio del cloud e gli dona una flessibilità sconosciuta ai modelli tradizionali. Tuttavia, miscelando la scalabilità virtualmente illimitata e il modello pay per use può scaturire una vera e propria moltiplicazione dei costi e, soprattutto, la totale perdita di controllo sugli stessi.

      La soluzione consiste nel pianificare correttamente le risorse e accordarsi con il/i provider per quanto concerne l’eventuale aggiunta di risorse o servizi, onde evitare spiacevoli sorprese. Se c’è una conoscenza completa dello sfaccettato universo dei costi cloud, sta poi all’azienda definire con il provider un contratto di servizio il più semplice e chiaro possibile, che gestisca tutti gli elementi di costo (anche quelli nascosti) e li allinei con i budget e gli obiettivi aziendali.

      Criticalcase e l’ottimizzazione dei costi cloud

      Non sempre le imprese possono contare su competenze specializzate nel controllo e l’ottimizzazione dei costi delle infrastrutture cloud. Ma tutte ne avrebbero bisogno.

      Per questo motivo, assume rilevanza strategica il servizio di Cloud Cost Management di Criticalcase, basato su framework di riconosciuta efficacia e finalizzato, appunto, all’ottimizzazione dei costi del cloud in funzione delle esigenze di ogni impresa.

      Semplificando, il framework si compone di una fase di pianificazione, comprensiva di obiettivi e requisiti, per poi passare all’assessment dell’architettura, all’analisi dei costi con censimento dei servizi utilizzati, alla loro riduzione e ottimizzazione attraverso misure tecniche come il ridimensionando delle macchine o modifiche architetturali delle applicazioni. Il tutto, assistito da competenze e tool dedicati.

      Il tema dei costi cloud è prioritario. Per questo, abbiamo realizzato un White Paper che approfondisce i temi di questo articolo e spiega l’approccio giusto da adottare. Vi consigliamo di scaricarlo, ed eventualmente di contattarci per ogni approfondimento in merito.

      Perché quantificare i costi del passaggio al cloud può rivelarsi difficile?

      Scopri come gestire al meglio la tua piattaforma cloud ed evita extra budget indesiderati!

      Add a date

      White paper

      Categorie
      Blog

      Managed service security: perché è la via più efficace per la sicurezza

      Managed service security: perché è la via più efficace per la sicurezza

      Managed services security

      La velocità e il dinamismo del business reclamano supporti digitali disponibili subito e soprattutto sicuri, condizioni difficilmente ottenibili senza il ricorso ai servizi di managed services security. L’evoluzione continua delle minacce cyber in circolazione e la necessità di monitorare con più attenzione ciò che accade su sistemi e reti, per poter reagire prontamente agli attacchi, costituiscono una sfida difficile per le imprese.

      Sfida che richiede la disponibilità di personale con competenze specialistiche nella security, pronto ad aggiornarsi in modo continuo su nuove minacce e misure di protezione. Personale pronto a intervenire nelle situazioni d’attacco, che tipicamente avvengono di notte e nei fine settimana, incompatibili con le risorse delle imprese medie e piccole, bersaglio privilegiato del cybercrime. Carenze facilmente affrontabili con servizi di managed service security.

      Managed service security al servizio delle imprese

      Nell’ambito dei tanti servizi gestiti che sono reperibili sul mercato, che spaziano dall’outsourcing IT al cloud infrastrutturale fino alle applicazioni online, i managed services security hanno caratteristiche molto specifiche, da non confondere con le gestioni di commodity normalmente incluse nei package di servizi. Il fornitore di managed service security mette a disposizione dell’azienda cliente competenze e strutture specifiche per la difesa dell’infrastruttura informativa.

      La risorsa più importante che caratterizza i managed services security provider è il SOC (security operation center) ossia la disponibilità di un centro operativo, funzionante su base 24x7x365, da cui erogare in tempo reale servizi di sicurezza attraverso agenti software e attuatori installati sulle reti e sistemi del cliente. Nel SOC i tecnici esperti sono continuamente aggiornati sulle minacce circolanti in rete a livello globale e sui metodi efficaci per bloccarle.

      Attraverso monitoraggio dei flussi di rete e degli allarmi inviati dai sistemi aziendali, vengono rilevati intrusioni, accessi anomali a dati e applicazioni, circolazione di malware ed exploit di vulnerabilità ed effettuati gli interventi di salvaguardia quali, per esempio, l’isolamento dalla rete dei sistemi compromessi o la riprogrammazione dei firewall per bloccare gli attacchi di denial of services (DoS) su servizi in rete.   

      L’esperienza del provider al servizio della security d’impresa

      Oltre alle capacità di gestione, i fornitori di managed service security mettono a disposizione del cliente la consulenza necessaria per migliorare la security di infrastrutture complesse, che comprendono reti, storage, sistemi fissi, mobili e servizi in cloud di vendor diversi. Sono offerti gli assessment delle tipologie di rischio a cui l’azienda è esposta, per esempio, per l’utilizzo del lavoro da remoto, delle connessioni digitali con partner nell’ambito della supply chain o per l’interesse dei cyber criminali verso le informazioni trattate.

      Si affiancano i servizi di vulnerability assesment, per conoscere il livello di robustezza offerto dal codice applicativo in uso e i penetration test con cui hacker etici professionisti mettono alla prova le loro abilità contro le difese già approntate. Stabilita l’appropriatezza dei sistemi di protezione è possibile programmare gli aggiornamenti nel tempo e garantire una gestione efficace in accordo con gli SLA d’intervento prestabiliti.

      In sintesi, un provider di managed service security deve avere le competenze per garantire innanzitutto la sicurezza infrastrutturale in ambienti ibridi on-premise e di cloud (per approfondimenti suggeriamo la lettura del white paper “Sicurezza e resilienza delle infrastrutture IT”). Deve saper individuare e risolvere le vulnerabilità del software applicativo o che si nascondono nei gap d’interconnessione tra differenti componenti di servizio. Deve inoltre possedere l’esperienza per saper valutare i livelli di rischio negli specifici ambienti di business e l’autorevolezza per intervenire su processi che hanno al centro le persone. Competenze che Criticalcase ha sviluppato in oltre vent’anni di attività internazionale come high availability service provider, con soluzioni su misura per ogni tipologia d’impresa.

      La cyber-resilienza è un modello che riunisce i processi di business continuity, pratiche di data security, resilienza organizzativa e offre una soluzione efficace e concreta al crimine informatico.

      Add a date

      White paper

      Categorie
      Blog

      SaaS deployment: 5 fattori per una delivery di successo

      SaaS deployment: 5 fattori per una delivery di successo

      saas deployment

      Rispettare, e mantenere, le promesse di sfruttare o fornire applicazioni in modalità SaaS (Software as a Service), può rivelarsi molto più difficile del previsto. Dietro le prospettive di flessibilità, risparmio e sicurezza, in fase di SaaS Deployment ci sono infatti una serie di aspetti tecnici da tenere in considerazione se si vuole raggiungere gli obiettivi previsti.

      Un’infrastruttura SaaS non può infatti prescindere da alcuni elementi critici, potenziali fonte di problemi. A partire dal corretto dimensionamento per l’ambiente destinato a ospitare il software, al quale sono legati costi e prestazioni, due tra gli argomenti chiave.

      Gli stessi costi devono essere valutati in dettaglio. Le spese per hardware, configurazione, gestione, disponibilità e assistenza, concorrono a determinare i canoni. Sbagliare la stima in un senso o nell’altro si rivelerà presto controproducente rispetto ai benefici auspicati.

      Prestazioni senza compromessi

      Nonostante questo, le prestazioni, picchi di servizio compresi, devono essere garantite senza eccezioni, La scelta SaaS è guidata proprio dalla prospettiva di liberarsi da queste incombenze. È quindi impensabile lasciare cadere sul cliente scelte sbagliate. Il tutto, naturalmente corredato dai relativi livelli di sicurezza sotto ogni aspetto. Da quella contro intrusioni di ogni forma, alla disponibilità totale di backup e modalità di ripristino, gestibili in totale autonomia.

      Per quanto compiti all’apparenza impegnativi, rappresentano le basi indispensabili per fornire servizi in cloud. In fase di SaaS Deployment, si può fare riferimento a cinque punti chiave, utili per mettere a punto una strategia e sviluppare processi a prova di brutte sorprese.

      5 passi verso un SaaS Deployment di successo

      Il filo conduttore è seguire in tutti i casi la continuità delle operazioni. Non si tratta cioè di avviare una sequenza di passaggi, ma sviluppare attività da curare in parallelo. Vediamo quali.

      1. Integrazione dei processi di sviluppo

      Vale a dire testare e installare regolarmente il software in più ambienti operativi, così da raccogliere maggiori riscontri e informazioni più complete. Una via per individuare più rapidamente anche errori e intervenire di conseguenza, con la tranquillità di poter distribuire effettivamente le correzioni solo nel momento in cui siano state verificate sotto ogni aspetto, senza lasciare in qualche modo all’utente in compito di fare da cavia.

      2. Configurazioni hardware aggiorante

      La stessa operazione deve essere condotta a livello di server. Anche le configurazioni hardware sono soggette ormai a frequenti cambiamenti, causati da semplici aggiornamenti o dall’aggiunta di nuovi moduli. Restare aggiornati, anche su quelli al momento non effettivamente utilizzati, gioca in favore di procedure meno complicate quando si parlerà di aggiornamenti.

      3. Continuous deployment

      Questi primi due aspetti si combinano a loro volta in un processo continuo di SaaS Deployment. Sia per il normale aggiornamento delle funzioni o delle correzioni, sia per proporre nuove funzioni, è utile prevedere un’elevata frequenza di aggiornamenti. Altrettanto importante, fissare dei punti di arrivo nei processi di sviluppo, in modo da avere sempre disponibile una versione pronta da installare.

      4. CI/CD pipeline

      Si arriva così a sviluppare la catena definita CI/CD. Integrazione e distribuzione continua del software si uniscono per garantire all’utente la disponibilità della versione più aggiornata e completa di un software, e allo stesso tempo la correzione degli errori rilevati durante le procedure di testing. Se bene organizzata, una procedura del genere permette di individuare gli errori per tempo, prima che si manifestino all’utente finale e capire dove sia necessario intervenire. Accelerando così anche i tempi di intervento.

      5. Testing automatico

      Come facile prevedere infine, i ritmi di un SaaS Deployment impostato su questi principi sono estremamente serrati. Diventa quindi importante affidarsi a un sistema di testing automatico per la ricerca dei problemi. Meglio ancora se standard, cioè non sviluppati internamente. Questo permette di appesantire meno i sistemi e al tempo stesso ottenere risultati confrontabili su una scala più ampia.

      Competenze ed esperienza: il ruolo di un partner

      Per quanto tutto sommato facili da inquadrare, pensare di mettere in pratica questi cinque punti in autonomia, non è necessariamente la decisione migliore. Affidarsi a esperti in materia, significa prima di tutto inquadrare al meglio lo scenario anche da una visuale indipendente. Inoltre, poter contare su competenze difficilmente presenti al proprio interno, anche solo perché fortemente specializzate. Infine, capaci di individuare le caratteristiche particolari utili a integrare una soluzione standard.

      La cyber-resilienza è un modello che riunisce i processi di business continuity, pratiche di data security, resilienza organizzativa e offre una soluzione efficace e concreta al crimine informatico.

      20 Gennaio 2023

      White paper

      Categorie
      Blog

      Cloud e vendor lock-in: i consigli degli esperti per evitarlo

      Cloud e vendor lock-in: i consigli degli esperti per evitarlo

      vendor lock in

      Di lock-in riferimento all’infrastruttura IT aziendale si parla praticamente da quando l’informatizzazione è diventata la regola. Contrariamente a quanto dichiarato però dai primi service provider cloud, l’argomento resta attuale anche nella fase di remotizzazione e virtualizzazione delle risorse.

      Solamente, la questione ha cambiato aspetto. Se prima si parlava di restare vincolati più del voluto a un unico produttore, esempio tipico erano i mainframe, ora la prospettiva si riferisce proprio ai provider. L’insieme di clausole contrattuali, accorgimenti tecnici e procedure complesse, mantiene infatti attuale il rischio di vendor lock-in più di quanto si possa preventivare.

      La questione è sentita dalle aziende. Secondo una ricerca Bain & Company, già un paio di anni fa il 65% dei CIO ragionava in ottica multi-cloud proprio anche per evitare questa situazione. D’altra parte, la realtà è spesso diversa. Il 71% utilizza i servizi di un solo cloud provider, mentre il restante 29% concentra comunque gran parte delle proprie risorse su un singolo fornitore.

      Se i primi anni di riscontri dal cloud hanno comunque tenuto in vita il lock-in, questo non significa riuscire a evitarlo, o almeno a controllarlo. Una serie di accorgimenti, anche in fase di rinnovo di un contratto esistente, permette infatti di mantenere una buona libertà d’azione e di decisione.

      Variare, con l’aiuto dell’open source, è sinonimo di libertà

      Su tutti, valutare un utilizzo più diffuso dei software open source al posto di quelli forniti dai provider. Il maggiore tempo richiesto in fase iniziale per messa a punto e configurazione sarà ampiamente ripagato dalla facoltà di muoversi secondo le proprie necessità. Non a caso, un’esigenza sottolineata anche dalla UE in sede di regolamento sulla libera circolazione dei dati non personali.

      La comodità delle piattaforme proposte dai principali produttori di software è fuori discussione. Al tempo stesso, un potenziale ostacolo nel momento in cui si consideri l’ipotesi di cambiare provider. Inoltre, l’aggiunta di funzioni particolari rende il vincolo ancora più stretto. Utilizzando invece strumenti open source si può mettere in preventivo una possibilità di scelta molto più ampia sul fronte della consulenza e dell’assistenza, sempre utili per sviluppare un proprio progetto.

      Più in generale, quando si scrive un contratto per servizi in cloud, è fondamentale prima di tutto prestare la massima attenzione a restrizioni nell’interoperabilità dei dati. Proprio per scoraggiare eventuali migrazioni verso un altro fornitore, tanti provider rendono l’operazione deliberatamente complicata, anche solo per disincentivare strategie multi-cloud. Da non sottovalutare, anche il rischio di vedersi accollare canoni aggiuntivi per l’operazione.

      Anche la relativa facilità di acquistare o estendere i servizi cloud può rivelarsi un rischio. Un eccesso di entusiasmo può infatti sfociare in un lock-in prima del previsto. Torna quindi utile una strategia di cloud governance fin dai primi passi, in modo da chiarire regole di accesso, modalità di fruizione e in generale la tendenza a diversificare i fornitori.

      Una buona soluzione è investire del tempo nello studio del contratto. Invece di cedere alla tentazione di siglare condizioni standard per avere la disponibilità immediata dl servizio, chiarirsi le idee risparmierà buona parte dei problemi futuri legati al rischio di vendor lock-in.

      Vendor lock-in, il nodo della proprietà dei dati

      Anche solo per questioni legali, è fondamentale sapere chi risulta effettivo detentore dei dati caricati nel cloud. La questione è meno scontata di quanto possa sembrare. Inoltre, è fondamentale stabilire con chiarezza le modalità di un’eventuale restituzione, dal momento che di fatto le informazioni sono memorizzate su server di proprietà altrui. Il formato di un eventuale download deve essere quello di caricamento o comunque compatibile con strumenti standard o disponibili in azienda, senza dover pagare canoni aggiuntivi per conversioni. In ogni caso, l’accesso deve sempre restare libero e totale. Dettagli come la cifratura e relative chiavi non devono avere margine di manovra.

      Stesso discorso vale per quanto riguarda eventuali dati relativi ai clienti. Tecnicamente, potrebbero infatti essere considerati del provider, in quanto non originati all’interno della rete aziendale. Devono comunque essere disponibili senza preclusioni.

      Di fronte a tante problematiche, alla fine la tentazione di affidarsi a un unico provider rischia comunque di prevalere. Una recente ricerca IBM indica infatti un calo di interesse verso il cloud lock-in. Se fino allo scorso anno la tendenza sull’opportunità di evitarlo era in crescita, fino a raggiungere il 56%, nel 2022 la rotta si è invertita, scendendo al 46%.

      Tuttavia, per la propria azienda una strategia multicloud e aperta resta la strada migliore e la più lungimirante. Per trovarla, è sempre utile affidarsi a esperti del settore. Consulenti autorevoli con una visuale a tutto campo, sia sulle esigenze delle aziende sia sull’offerta dei provider, con relativa comprovata affidabilità.

      Perché quantificare i costi del passaggio al cloud può rivelarsi difficile?

      Scopri come gestire al meglio la tua piattaforma cloud ed evita extra budget indesiderati!

      Add a date

      White paper

      Categorie
      Blog

      Cloud monitoring, come avere visibilità su applicazioni e infrastruttura

      Cloud monitoring, come avere visibilità su applicazioni e infrastruttura

      Dietro gli innegabili vantaggi del cloud si nasconde anche una serie di nuovi problemi, da tenere in considerazione se non si vuole rischiare di ottenere l’effetto contrario rispetto alle ambizioni di flessibilità e facilità di gestione della propria infrastruttura IT. Il proliferare di applicazioni, di provider e servizi generalmente adottati rende infatti indispensabile una strategia di cloud monitoring.

      Per evitare il rischio di perdere il controllo della propria organizzazione, ogni elemento del cloud deve essere osservabile in ogni momento e quantificabile dal punto di vista delle prestazioni e, soprattutto, della disponibilità. Serve quindi combinare strumenti di analisi, monitoraggio e gestione. Aspetto non secondario, a vantaggio anche della sicurezza.

      Tutti i principali servizi cloud offrono anche strumenti di monitoraggio integrati. Non sempre, però, è consigliabile affidarsi a questi. Prima di tutto, perché gestiti dallo stesso fornitore del servizio. Inoltre, raramente si affida a un unico provider l’intero pacchetto di servizi aziendali. Più spesso, la realtà è un ambiente multicloud, in genere ibrido, dove l’utilizzare i relativi strumenti di cloud monitoring proprietari per ciascun modulo significa aumentare la complessità e l’integrazione dei risultati per ottenere una visione globale.

      Un cloud monitoring indipendente, la scelta più sicura

      Diversamente, affidarsi a una soluzione dedicata, in grado di analizzare tutti i servizi a prescindere da dove siano erogati e usufruiti e dal provider, permette di ottenere una visuale completa e lascia spazio alla personalizzazione. Le proposte in materia non mancano. Anzi, affidandosi a un valido servizio di consulenza, è sicuramente più facile trovare la soluzione in grado di adattarsi alla propria realtà, e valorizzare il relativo investimento.

      A prescindere da questa scelta iniziale, l’obiettivo deve comunque restare lo stesso: individuare potenziali problemi nell’architettura cloud in grado di mettere a rischio una risorsa per utenti o clienti. Naturalmente, soprattutto nel caso di servizi come l’e-commerce, prima che possano manifestarsi al potenziale acquirente.

      Se nel cloud privato, dove ogni elemento dell’infrastruttura IT è sotto il proprio controllo, l’operazione può rivelarsi relativamente semplice, nel cloud pubblico, affidarsi a strumenti dedicati è praticamente una necessità.

      In realtà però, la maggior parte delle strutture sono ibride e per di più distribuite. In questo caso, affidandosi a una soluzione specializzata, il cloud monitoring può andare oltre i semplici controllo e prevenzione, fino a individuare per esempio come gestire in modo dinamico l’archiviazione dei dati, o la necessità di spostare applicazioni a seconda delle prestazioni e delle disponibilità di risorse del momento.

      Cloud monitoring, la via da seguire

      Per ottenere questi risultati, può tornare utile affidarsi a una serie di regole generali, tra le quali individuare le più utili ai propri obiettivi. A partire dalla decisione sulle metriche da monitorare, in genere risultato di un confronto interno o con consulenti esperti.

      Inoltre, è utile raccogliere tutti i dati in un’unica piattaforma, a beneficio di minore confusione e complessità. Eventualmente normalizzandoli, in modo da consentire confronti tra servizi e fornitori diversi. In prospettiva di una auspicata crescita futura, i relativi criteri di correlazione e analisi devono essere automatizzati, anche solo per mantenere a lungo il controllo della situazione. Se inizialmente una piccola infrastruttura IT può dare la sensazione di poter essere gestita manualmente, la crescita organica porterà a un aumento esponenziale della complessità e alla relativa impossibilità di mantenere il controllo senza strumenti di supporto.

      Soprattutto, i dati devono essere aggiornati e disponibili ai diretti interessati ogni volta sia utile consultarli. Meglio ancora, se con opportuni segnali di allarme nel caso di avvicinamento a soglie critiche. Anche un minimo rallentamento nel caricamento delle pagine Web di un servizio online deve richiamare l’attenzione.

      Ci sono altri due aspetti importanti da tenere in considerazione, al di là di prestazioni e affidabilità. Soprattutto in situazioni di soluzione ibrida o pubblica, il cloud monitoring è un aiuto importante per la conformità. Conoscere come e dove sono conservati dati e applicazioni è anche una questione legale, da seguire e documentare.

      Infine, la sicurezza. Qualsiasi informazione portata nel cloud ed esposta a un utente finale è un potenziale obbiettivo. Tenere sotto controllo aspetti all’apparenza banali, come un numero anomalo di tentativi di accesso o un picco improvviso e non previsto nell’utilizzo delle risorse, significa disporre di un campanello d’allarme importante, utile ad accorciare i tempi di reazione e tutelare l’integrità dei propri sistemi.

      La cyber-resilienza è un modello che riunisce i processi di business continuity, pratiche di data security, resilienza organizzativa e offre una soluzione efficace e concreta al crimine informatico.

      Add a date

      White paper

      Richiedi la tua prova gratuita

      Ehi! Stai già andando via?

      Iscriviti alla nostra newsletter per restare aggiornato sulle novità dell’universo Criticalcase