INFORMATIVA BREVE

Il presente sito web utilizza cookie di tipo tecnico e cookie di "terze parti".
È possibile prendere visione della privacy policy estesa e gestire l’utilizzo dei cookies secondo le tue preferenze accedendo alla presente informativa.
Cliccando su "OK" verrà accettata l’impostazione predefinita dei cookies che potrà essere gestita e modificata anche successivamente accedendo alla pagina "gestione dei cookies".
 
 
 
 
 
 
 

Siamo pronti per la leggerezza?

Siamo pronti per la leggerezza?
 
 
Quante sigle e concetti abbiamo sentito in questi anni? Evviva il ROI, il ritorno sugli “Asset”, ovvero quel che teniamo sotto il tetto e che pesa sui conti patrimoniali. Evviva il TCO, il Total Cost of Ownership, che in soldoni è fatto di quote di ammortamento, oneri finanziari e spese di gestione, valorizziamo la “Cassa”, “Liberiamo risorse”, ottimizziamo il Tasso di utilizzo degli impianti! Ma quando si parla di hi-tech, paradossalmente, non sempre le visioni si traducono in realtà. Da tempo le aziende, hanno smesso di produrre energia elettrica in proprio, i parchi auto sono sempre più spesso gestiti da società esterne. Le stesse proprietà immobiliari sono il più delle volte in affitto, ma quando si parla di risorse informatiche, quelle stesse aziende hanno ancora difficoltà a compiere il salto di qualità dalla proprietà al servizio. Il risultato è sotto gli occhi: risorse immobilizzate, obsolescenza tecnologica, rigidità di fornitura perché occorre comunque prima ammortizzare quel che c’è in casa. Risorse umane e finanziarie impegnate per garantire il funzionamento di vecchie applicazioni più che a crearne di nuove. Per non parlare del tasso di sfruttamento dell’investimento IT che, come ci confermano le statistiche e anche molti clienti con cui andiamo a parlare, è a vivelli decisamente bassi, talvolta dell’ordine del 20-25 per cento.

Sono maturi i tempi per pensare ad un approccio diverso. Il Cloud computing sta all’informatica tradizionale così come l’elettricità sta alla forza dell’acqua corrente: la si puàò utilizzare quando serve, dove serve e per quanto serve. Senza limiti. Pubblicità? No: si tratta della conseguenza di un duplice “shift” o “spostamento” tecnologico. Potremmo dire che si tratta di un cambiamento che riguarda il “motore” e la “trasmissione”.

Virtualizzazione e velocità delle reti: le due leve

Da una parte è l’effetto della maturità delle tecnologie di virtualizzazione. Tecnologie che riguardano naturalmente i server ma che, in misura crescente, impattano anche lo storage e, soprattutto in prospettiva, il mondo del desktop. La virtualizzazione non è di per sé una tecnologia nuova: se ne parlava già 40 anni fa, ai tempi dei sistemi operativi dei mainframe IBM (il VM o “Virtual Machine”, appunto). In presenza di risorse costose e solo parzialmente utilizzate (un MIPS di allora costava una fortuna), le macchine virtuali erano utilizzate, per esempio, per separare ambienti di produzione e ambienti di sviluppo. La grande novità oggi è soprattutto la possibilità di creare e modificare in modo estremamente dinamico, con una facilità un tempo impensabile, appunto “sessioni” o “server virtuali”: anche parecchie decine su un solop server fisico.

La seconda trasformazione, che ha reso possibile guardare soprattutto alla prospettiva del cloud “pubblico”, è stata la diffusione delle reti di comunicazione a banda larga. In passato, i costi e le prestazioni delle reti avrebbero scoraggiato lo spostamento di grandi quantitivi di dati. Oggi ne sono la premessa. E’ per questo che oggi si usa dire: “No network, no cloud”. Le nuove generazioni delle reti geografiche – sia d’accesso sia di trasmissione, cioè i backbone – hanno contribuito a modificare la “geografia delle risorse IT”. Non si tratta solo di ridurre tempi e costi per l’accesso degli utenti alle strutture informatiche, ma anche di ottimizzarne il loro funzionamento e, aspetto non trascurabile, la loro sicurezza. Un esempio per tutti: Nella primavera del 2012, Brennercom ha adottato tra Trento e Bolzano la più veloce “autostrada dati” d’Italia e una delle più veloci in Europa, con più canali trasmissivi da 100 Gigabit al secondo e una capacità aggregata dell’ordine dei Terabit/s. Contemporaneamente, sono stati introdotti nuovi sistemi “metro” per la gestione degli archivi a disco che permettono non solo di ottimiozzare il backup “tra” i dischi, ma anche di scrivere in contemporanea “sui” dischi. Risultato: tempi di latenza che tendono ad azzerarsi, scendendo a 1-2 millisecondi, con conseguenze annullamento di tempi e distanza.

Soluzioni di questo genere, insieme con tecnologie e staff dedicati 24 ore su 24 ad occuparsi della sicurezza dei dati e delle reti, risulterebbero probabilmente sovradimensionati ed antieconomici per il 95 per cento delle aziende dotate di strutture IT, ma divengono un “best practice” nell’ambito di un’organizzazione orientata al cloud computing, dove enormemente maggiore è il tasso d’impiego delle risorse. Va poi da sé che il costante miglioramento delle infrastrutture di rete a disposizione delle aziende e degli utenti in generale permette di raggiungere ai fini pratici quelle prestazioni e quesi costi che anche solo cinque anni fa potevano sembrare un sogno. E’ per questo, tra l’altro, che Brennercom prosegue nell’estensione della copertura delle nuove generazioni di reti a larga banda soprattutto là dove maggiore è la richiesta, ovvero nei contesti aziendali, dove maggiore è la presenza di un’utenza business e professionale. L’epoca del sogno sta terminando.
E’ il momento di trasformare le nuove opportunità in un fattore competitivo decisivo. La velocità, oggi e nei prossimi anni, sarà l’arma decisiva del successo. Essere più “leggeri” sarà anche la strada per correre di più, consumare di meno e allineare la tecnologia alle richieste del mercato e delle aziende. Non il contrario.
 
 




DE IT EN
Italiano
OK