Uncategorized

Green IT, andiamo oltre

Negli ultimi anni è diventata pratica comune lasciare i Personal Computer sempre accessi (giorno, notte e fine settimana), non solo a casa, ma anche (e soprattutto) nelle aziende. Per quanto possa essere una semplificazione per alcuni aspetti (come vedremo fra poco), questa policy rappresenta anche uno spreco evidente. Non solo fa consumare energia elettrica in maniera quasi del tutto inutile, ma contribuisce in maniera rilevante all’inquinamento ambientale, specialmente per i Paesi che si servono di energia da fonte fossile (Italia in testa).

Il calcolo della corrente sprecata è presto fatto, almeno a grandi linee: moltiplicate il numero di macchine nella vostra organizzazione per le ore notturne in cui non si lavora sommate alle ore inutili nel fine settimana e per la potenza consumata. Otterrete così il lavoro in kWh sprecato che non solo pagate, ma che fate pagare all’ambiente. La potenza impegnata da un personal computer è un fattore che varia in maniera molto ampia a secondo delle condizioni, ma per un calcolo approssimativo 60W potrebbe essere una cifra ragionevole. Un calcolo più accurato, naturalmente richiede una analisi più approfondita delle componenti hardware de del loro comportamento nel corso della giornata.

Gradatamente nel corso degli anni ’90 sono stati introdotti sistemi di risparmio energia che tuttavia non sempre sono efficaci. Per esempio lo stand-by automatico della macchina dopo qualche ora di inattività, rende spesso inutile lo scopo stesso del lasciare il computer acceso e spesso viene disabilitato. Lo spegnimento automatico dei dischi fissi, spesso porta a una continuo ciclo di accensione e spegnimento che è particolarmente dannoso per la meccanica dei drives, quindi allo stesso modo viene spesso disattivato o fortemente ridotto allungando il tempo di attesa.

Naturalmente, prima di pensare a una soluzione al problema, bisogna pensare alle radici.
Per quale motivo molte aziende tendono a tenere i PC continuamente accesi durante orario non lavorativo?

Il motivo primario è quello di far girare aggiornamenti e scansioni antimalware. In questa categoria ricade banalmente Windows Update sia che venga effettuato centralmente dal sito della Microsoft o (probabilmente a maggior ragione) se viene gestito da un server WSUS interno all’organizzazione. Windows è solo un esempio, il più conosciuto al grande pubblico, naturalmente ogni sistema operativo così come molte applicazioni sono dotati di sistemi di aggiornamento automatico simili. Dato che a volte gli aggiornamenti sono molto pesanti, lunghi da applicare e magari richiedono uno o più riavvii, farli girare durante la notte è una buona idea, soprattutto per evitare la sindrome del il computer non funziona, non posso lavorare, molto comune negli ambienti di lavoro. Anche l’istallazione di applicazioni o la reinstallazione di un PC da zero, sono attività spesso automatizzate o semi-automatiche che un reparto ICT può preferire far girare di notte quando c’è tempo di verificare il buon funzionamento ed eventualmente porre rimedio a un errore.
Per quanto riguarda i software di sicurezza, un antivirus, per esempio, può effettuare non solo l’aggiornamento delle definizioni, ma anche la scansione completa del computer fuori dall’orario lavorativo. Un antispyware si comporta in maniera simile: le scansioni di questa classe di software sono molto intensive sui dischi di sistema e ne modificano le prestazioni in maniera notevole, tanto che di giorno un utente può lamentarsi per una eccessiva lentezza in alcune applicazioni.
Ci sono poi esempi più specifici, ma questa poche righe penso abbiano fato una panoramica generica della situazione. Dopo queste considerazioni, vorrei proporre qualche idea per ovviare al problema.

Tra le soluzioni che possono essere messe in atto in maniera piuttosto veloce, con la tecnologia esistente e al massimo con qualche piccola applicazioni ad hoc ci sono alcune soluzioni interessanti. Il ricorso massivo al Wake-On-LAN, per esempio è un  buon punto di partenza. WOL è una tecnologia integrata nelle schede di rete e nelle schede madre da una quindicina d’anni che permette alla scheda di rete di restare sempre in ascolto anche se il computer è spento del tutto. Un particolare datagramma (detto Magic Packet) spedito in broadcast sul segmento di rete in cui si trova la scheda, permette di effettuare un avvio automatico e completamente remoto della macchina. Questa tecnologia è piuttosto semplice, quasi ubiqua per quanto riguarda l’hardware e molto diffusa nei software di gestione. L’implementazione personalizzata è molto semplice (vi invito al leggere l’apposita voce sulla Wikipedia per più informazioni sulla tecnologia e sulle varie implementazioni), tanto che il codice necessario per farla funzionare in .NET, per esempio, fa parte della mia raccolta di snippets. L’installazione degli aggiornamenti, di software o delle patch potrebbe trarre gran beneficio già dall’adozione ampia di questa tecnologia. Spegnendo semplicemente  i computer durante la notte, il sistema di distribuzione del software (o delle patch o di qualcos’altro, qualunque esso sia) dovrebbe essere in grado di avviare una macchina, effettuare le operazioni software necessarie e dopodiché comandare di nuovo uno spegnimento automatico. E’ una soluzione che mi pare semplice, versatile e facilmente applicabile. La tecnologia del WOL è probabilmente poco conosciuta e, apparentemente poco applicata dal punto di vista software, ma a me sembra una soluzione eccellente, nel brevissimo periodo.

Se guardiamo nel periodo medio-lungo, possiamo elaborare soluzioni appena più sofisticate e molto più efficienti.
Per esempio, una modularità maggiore in tute le componenti hardware sarebbe molto efficace. Gli alimentatori, i trasformatori dovrebbero essere in grado di fornire potenza a livelli discreti più fini, così’ come le ventole dovrebbero essere in grado di smaltire il calore necessario e non di più. Le ventole tachimetriche sono un passo in avanti in questa direzione, in futuro una soluzione più interessante potrebbe essere l’adozione di ventole più piccole, posizionate in maniera strategica da accendere e spegnere a comando e con velocità variabile. E’ una cosa che funziona piuttosto bene nelle macchine server, potrebbe essere applicata anche ai PC di fascia più bassa.

I microprocessori multicore sono il presente e saranno il futuro della pura capacità elaborativa: ognuno di loro dovrebbe essere in grado di gestire le singole aree del microchip in maniera differenziata, accendendo e spegnendo modularmente solo la parte che fornisce la potenza elaborativa effettivamente necessaria al momento. Questo con il doppio beneficio di ridurre il consumo e il calore prodotto (poi da smaltire).

Per quanto riguarda le memorie di massa, le unità a dischi removibili potrebbero essere del tutto spente nella notte, per esempio, mentre i dischi rigidi subiranno in pochi anni una rivoluzione. I dischi fissi a memoria magnetica attuali sono molto diffusi ed estrememamente economici, ma si stanno affacciando sul mercato nuovi dischi a stato solido che funzionano in maniera simile alle flash memory USB. A fronte di una sensibilità ancora alta verso i campi elettrici di forte intensità e una prestazione in lettura scrittura sequenziale peggiore dei dischi magnetici, i dischi a stato solido hanno prestazioni migliori nell’accesso casuale, maggiore leggerezza, resistenza agli urti e un consumo energetico molto minore.

Ultimo, ma non meno importante, le scheda grafiche che al giorno d’oggi consumano e producono calore quanto e più di una CPU potrebbero essere selettivamente spente quando non necessario: un lavoro amministrativo sul PC non richiede la potenza di un applicazione di grafica o di modellazione tridimensionale quindi anche qui le schede dovrebbero essere costruite in maniera più nodulare in modo da fornire solo le prestazioni necessarie in ogni momento e quindi consumare di conseguenza o non consumare del tutto!

Un discorso simile può essere fatto per le perle periferiche esterne. Tastiere e mouse consumano pochissima energia elettrica in quanto sono spesso basati su LED di recente generazione che generano luce con efficienza altissima, questo tuttavia non significa che dovrebbero essere ignorati in un progetto di risparmio energetico complessivo. Potrebbero per esempio essere dotati di un piccolo accelerometro (simile a quello che si trova ormai in tutti gli smartphone e che permette a questi apparecchhi di reagire a scuotimenti o cambi di orientamento in maniera programmata) che permetta ai dispositivi di spegnersi quando non sono sottoposti a sollecitazioni meccaniche e di riaccendersi quando l’utente appoggia le mani sopra (o, addirittura, si avvicina alla scrivania).
I monitor LCD hanno già fatto un passo enorme in avanti verso il risparmio, ci sono poche cose da fare. Anche qui un accelerometro, potrebbe accendere e spegnere il monitor in maniera veloce quando l’utente si avvicina o si allontana. Inoltre un sensore di luce potrebbe automaticamente selezionare il livello di retroilluminazione necessario per bilanciare la luminosità dell’ambiente e non di più.

Infine è necessaria una digressione sui sistemi di climatizzazione dei CED. Come è noto anche ai non addetti ai lavori, la climatizzazione dei data center è un argomento molto “caldo” (permettetemi il bisticcio di parole) in quanto una ottimizzazione della circolazione dell’aria calda e di quella fredda, permette un risparmio energetico e, di conseguenza, anche ambientale. Una strada che tuttavia mi sembra non venga percorsa è quella dell’utilizzo della aria esterna insieme a quella riciclata all’interno della stanza. Mi spiego: molte nazioni occidentali si trovano a latitudini che durante l’inverno vedono temperature ambientali anche piuttosto basse, facilmente nell’ordine di 0-5° C. Notate che questo intervallo di temperature è perfettamente normale per un condizionatore d’aria di livello industriale.
A volte ci troviamo addirittura nella ridicola situazione per cui all’esterno di una stanza ci sono 0° C, un riscaldamento centralizzato cerca di portare la temperatura interna a 20-25° C e un condizionatore lavora per abbassarla a 18° C. Si consuma due volte per niente, è spreco puro!
E vi posso assicurare che non si tratta di una situazione ai limiti, molti di noi si trovano in situazioni simili per tutti i mesi invernali.

Anche nel campo del condizionamento, quindi, ci sono ampissimi margini di miglioramento: partendo dal presupposto che la temperatura raggiunta dai calcolatori in una sala server è estremamente elevata e crescerà probabilmente ancora per qualche anno, non solo sarebbe meglio non riscaldarli, ma anzi, si potrebbe canalizzare appropriatamente il calore e usarlo per riscaldare altri uffici, almeno quelli adiacenti. Ovviamente il calore prodotto da un CED non può essere sufficiente a riscaldare un palazzo intero di uffici, ma una gestione intelligente del calore potrebbe alternativamente espellere all’esterno del complesso l’aria calda durante l’estate e invece canalizzarla negli uffici durante la stagione fredda. Nella stessa maniera, un condizionamento intelligente dovrebbe capire quando pescare l’aria dall’esterno e abbassarne solo un po’ la temperatura (in primavera, ad esempio) o addirittura farla circolare invariata, quando in inverno raggiunge temperatura prossime al congelamento.
Chi si intende un po’ di impianti di condizionamento sa che qui non è c’è niente di fantascientifico, si tratta solo di ripensare i sistemi di riscaldamento, raffreddamento e ricircolo d’aria, integrarli meglio e aggiungergli un po’ di intelligenza rispetto al semplice termostato che siamo soliti usare oggi.

Penso di dover reiterare ed espandere il concetto di cui sopra: in tutto il post non c’è niente di fantascientifico e niente che richieda tecnologie molto al di la di quello che, più o meno, l’informatica è già oggi. La parola d’ordine al giorno d’oggi è Green IT un concetto che viene continuamente ripetuto e che per fortuna molte azienda stanno tentando di mettere in pratica con misure tangibili, anche se gli sforzi mi sembrano un po’ troppo focalizzati su piccole migliorie sui prodotti. L’ICT in generale, invece trarrebbe gran vantaggio da una decisa modifica a livello di sistema visto come informatica e telecomunicazioni nel loro complesso. La strada è tracciata e, come abbiamo visto qui sopra, ci sono idee che possono essere messe in atto subito, altre in poco tempo, ma tutte richiedono un cambio di paradigma e una capacità di ragionare al di fuori dagli schemi.

Annunci
Standard

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...