Uncategorized

Le congratulazioni non bastano

I pochi lettori affezionati di questo blog sanno che la mia tendenza assolutistica mi porta spesso a scrivere sopra i massimi sistemi piuttosto che di cose comuni o accadimenti personali.

In questo post mi sento di fare uno strappo alla regola per celebrare un importante risultato dell’amico Maurizio Collu.
A chi non conoscesse il personaggio, consiglio una visita al suo sito web dove scoprirete i suoi interessi e qualche cosa della sua brillante carriera scientifica.

In questo post, tuttavia, desidero rendere pubblico omaggio a un importante traguardo che ha raggiunto pochi giorni fa: la pubblicazione di un suo articolo sulla prestigiosa rivista della Royal Society.

La Royal Society of London for the Improvement of Natural Knowledge – questo il suo nome per intero – è una organizzazione che esiste per promuovere un gruppo di discipline accademiche scientifiche. Si tratta probabilmente della più antica Società di questo tipo tutt’ora esistente. Solo per fare qualche esempio sulla sua eminenza, ricordo che uno dei suoi presidenti è stato Isaac Newton mentre la persona che attualmente ricopre la carica è Martin Rees.

Sulle due serie (che si occupano di matematica, fisica, ingegneria e biologia) della Proceedings of the Royal Society hanno collaborato negli anni personaggi di assoluta eccellenza come P.A.M. DiracW. HeisenbergJ.C. MaxwellE. RutherfordE. Schrödinger.

Con questo penso di avere inquadrato piuttosto bene l’ambito nel quale l’articolo è stato pubblicato.

L’articolo, appunto, è uno studio numerico sulla stabilità di un particolare e ipotetico veicolo ibrido che possa operare sia come natante ad alta velocità – simile a un aliscafo – sia come velivolo a effetto suolo – sostanzialmente un ekranoplano. Per quanto la trattazione matematica sia piuttosto sofisticata e non alla portata di ogni lettore, pur non trattandosi di uno scritto divulgativo, chi sia in possesso di una minima conoscenza di fluidodinamica è in grado di leggere il testo e di comprenderlo a livello basilare, apprezzandone la curata fattura oltre al contenuto di estremo interesse.

Si tratta di un lavoro pionieristico che, nella migliore tradizione scientifica, si poggia sulle spalle di giganti che lo hanno preceduto, ma che non è per niente un nano: non manca infatti di portare novità importanti nello studio del fenomeno.

Non mi dilungo oltre nella descrizione dell’articolo, anche perché non sarei abbastanza qualificato per farlo, ma invito di nuovo il lettore a dedicargli qualche minuto nella sua versione completa: il tempo impiegato in una lettura così interessante è sempre ben speso.

Con questo concludo il post: sperando di non aver annoiato, ma invece di aver dimostrato che, in questo particolare frangente, le semplici congratulazioni proprio non sarebbero state abbastanza.

Standard
Uncategorized

Il cloruro di sodio scorre a fiumi

In questi giorni, le pagine dei quotidiani sono piene delle solite
discussioni vuote sul maltempo, sui disagi, sulla prevenzione e sulle soluzioni.
In sostanza una montagna di chiacchiere su argomenti che domani saranno vecchi e
che ricominceremo a trattare in maniera identicamente uguale alla prossima
nevicata, senza naturalmente aver fatto un passo in avanti nel frattempo. Insieme a queste polemiche, a volte troviamo vere e proprie perle di
saggezza. Sul Corriere della Sera di oggi, leggo a pagina 11 che negli
Stati Uniti l’uso del sale contro il gelo è bandito.
Incredibile, mi dico, chissà quale tecnologia avanzata avranno studiato gli USA
per far fronte a una tale piaga. Leggo quindi il trafiletto e ci penso sopra.
Risulta in prima istanza che il sale sia dannoso per la vegetazione e per gli animali.
In effetti, penso, aumentare la salinità all’interno del corpo porta problemi
vari dovuti alla errata attività osmotica che deve lavorare per abbassare la
concentrazione salina con il rischio di uno squilibrio elettrolitico. Per
quanto l’allarme mi sembri un po’ esagerato, sicuramente la cosa ha un senso.
Come hanno risolto il problema in America? L’articolo dice con la
brine
: una mistura di cloruro di sodio e acqua.
Bene ragioniamoci sopra un attimo.

Quando ho letto l’articolo la prima volta era mattina abbastanza presto,
quindi le mie facoltà mentali erano probabilmente ancora in sofferenza per il
risveglio.
Tuttavia cerco di concentrarmi e mi convinco che sì, il Cloruro di Sodio è un
composto chimico con formula NaCl. Formula che dovrebbe essere
familiare a
tutti, infatti persino il mio cervello addormentato capisce che si tratta del
comune sale da cucina.
Riassunto fino a questo punto: gli USA risolvono il problema del sale usando…
il sale!
Geniale, si vede che noi italiani siamo proprio indietro!

Con il progredire della mattinata, mentre il mio cervello riprende la sua
normale funzionalità, cerco di capire se questa notizia sia la solita bufala, un’accrocchio
di parole messe lì per riempire uno spazio vuoto o che altro.
Inizio indagando
sulla misteriosa brine, composto apparentemente miracoloso che si rivela
essere poi la comune salamoia, ovvero
una soluzione di sale da cucina molto concentrata. Proseguo un po’ nella ricerca
sull’argomento, trovo qualche articolo su giornali regionali degli stati più
freddi dell’Unione e finalmente la vicenda inizia a dipanarsi.

In effetti l’uso della salamoia chimicamente non ha niente di diverso dall’impiego del semplice sale da
cucina come si fa normalmente da noi.
Semplicemente, invece di buttare approssimativamente manciate di sale grosso per
strada, si è deciso di usare lo stesso composto in soluzione che, essendo
appunto liquida, ha il
vantaggio di disperdersi più uniformemente. Il risultato netto è che, per
ottenere lo stesso effetto delle manciate di sale grosso è sufficiente una
quantità minore di sale disciolta in acqua – la salamoia appunto – con lo stesso
effetto finale, ma il sale molto meno con evidente vantaggi ambientali ed
economici.

In conclusione, per l’ennesima volta, tocca evidenziare come la spiccata
tendenza
tuttologa
dei giornalisti e la pigrizia nel non voler fare nemmeno la più
elementare ricerca, ha portato a scrivere un pezzo di qualità che definire
scadente è eufemistico su un prestigioso e
diffusissimo quotidiano nazionale.
Come possiamo pretendere che i cittadini siano informati e si interessino alle
notizie, quando gli apparentemente onniscienti giornalisti non sanno sfogliare
un dizionario e non si sforzano nemmeno di capire che cosa sia il sale?

Buon Natale e evviva il pressapochismo!

Standard
Uncategorized

L’Onda portante

Ammetto candidamente di aver appreso della nascita di
Google Wave da un quotidiano generico e di
non essere stato abbastanza informato sul Google I/O per venire a conoscenza del
prodotto in tempi più appropriati per una persona come me che lavora nel campo del
ICT. Per rimediare a questa brutta figura, mi sono rivisto due volte in
meno di un giorno il video della technical preview che si trova su Youtube
e che ho incorporato più avanti nel post (vi consiglio anche di
dare una occhiata al keynote della
conferenza
, è illuminante).
Su internet la notizia ha naturalmente fatto molto rumore: lo spettro delle voci
va dagli entusiasti per partito preso, ovvero i fanatici di Google a ogni costo,
agli scettici per nulla colpiti da questo annuncio. Normalmente io faccio parte della seconda categoria,
ma questa volta devo dire di essere passato molto velocemente dalla parte degli
entusiasti, ma non per partito preso.
Nel resto del post cercherò
di spiegarvi il perché.

Prima di tutto è opportuno che inviti i più curiosi di voi a vedere il video
della presentazione. Per quanto breve, meno di una ora e mezzo, è organizzata molto bene
e da una panoramica completa di Wave, per quanto possibile in così poco tempo.
Fate molta attenzione alle parole con cui Vic Gundotra – Vice President Engineering
di Google – annuncia la presentazione: «yesterday we promised
you a surprise for this morning… and this morning Google will
surprise you»
.
Siamo avvisati…

Per prima cosa bisogna definire che cos’è il prodotto Google Wave.
I giornali e le fonti di notizie generaliste lo hanno definito come un contrattacco
di Google nei confronti di Fecebook e del social networking
in generale, campo in cui il sito Orkut di Google ha avuto scarso successo e gode
di poca popolarità.
In effetti Wave è molto di più, sia dal punto applicativo che strutturale, è una cosa più grande e molto più versatile di un
social network o di un aggregatore.
Nella presentazione è definito come un insieme tra un prodotto, una
piattaforma e
un protocollo. Io personalmente lo definirei con il solo
termine  piattaforma:
rende bene l’idea di un prodotto che non è un semplice applicativo, ma una nuova
sovrastruttura.

La dimostrazione parte da una discussione sulla e-mail, spiegando come questo
strumento, per quanto diffusissimo, è stato pensato circa 40 anni fa con una tecnologia
completamento diversa dalla attuale e si tratta quindi di un vero e proprio pezzo
d’antiquariato. Apparentemente, in prima battuta, Wave sembra quindi un
rimpiazzo
a un sistema di messaggistica, ma definirlo così è riduttivo.
Il concetto centrale di tutta la piattaforma è la conversation, la conversazione: in
ultima analisi
ogni tipo di documento e di comunicazione sarà una conversazione o, detto nel nuovo
gergo, un Wave, neologismo creato al volo per questa tecnologia.

Qualche esempio, giusto per essere pratici:

  • Una e-mail si trasformerà in una discussione (un wave) tra due persone. Una
    volta intavolato un discorso, si potranno invitare altri partecipanti a
    comunicare (qualcosa di simile al CC e al FW) e diventerà un ibrido tra una e-mail tra più
    destinatari e una conversazione
    su un software di IM come Skype o MSN.
  • Un post in un blog sarà un wave proposto dall’autore potenzialmente a tutto
    il mondo: quelli che adesso sono i commenti, saranno degli interventi di altri
    utenti nel wave.
  • Un documento sarà di nuovo una conversazione, probabilmente iniziata e finita
    dall’autore. Ma invitare amici o collaboratori a partecipare sarà
    semplice come
    invitare amici su Google Docs
    : aggiungendo l’account, chiunque potrà vedere immediatamente
    il documento e partecipare alla stesura, correggerlo o semplicemente aggiungere i propri
    commenti.
  • Una voce di una wiki sarà un wave a cui non solo tutti potranno
    partecipare,
    ma potranno lasciare commenti direttamente inline, senza la
    necessità della
    linguetta discussione (il termine continua a ricorrere,
    apparentemente) come nelle wiki più diffuse al momento

Veramente impressionante è la collaborazione immediata che abbiamo visto sullo
schermo: è possibile scrivere a un’altra persona, non solo nel solito metodo
asincrono tipico della e-mail, ma anche in maniera veramente live,
addirittura con ogni carattere inviato in tempo reale!
Vederlo a schermo è, mi ripeto, impressionante: resta da vedere se questa immediatezza
funzionerà comunque su internet e su server con potenza elaborativa varia, oltre
che su reti con ampiezza di banda e livelli di congestione diversi.

Un altra caratteristica interessante e affascinante è il progresso della
linguistica basata su quello che gli autori chiamano language model.
Il language model consente
non solo la correzione ortografica, ma va addirittura molto oltre la correzione grammaticale.
Questo significa che non solo una parola viene corretta in base a un dizionario
linguistico
ma le intere frasi sono corrette, non in base a una serie di regole
grammaticali, bensì basandosi su un modello sensibile al contesto.
Nel video c’è un esempio molto efficace
di questo meccanismo: le frasi

Can I have some been soup?
Icland is an icland

diventano automaticamente

Can I have some bean soup?
Iceland is an island

Notate che ortograficamente la prima frase era corretta, ma il Language
Model ha stabilito che nel contesto della zuppa, la parola bean fosse più corretta
rispetto alla, forma verbale been. Nel secondo caso, due parole
sbagliate identiche sono trasformate nelle loro varianti corrette basandosi sul
probabile
significato della frase.
Di nuovo, sullo schermo questa cosa è impressionante,
sarà interessante vedere con quale precisione e con quale velocità questo funzionerà
nel mondo reale.
Verso la fine della presentazione il Language Mdoel ci presenta una nuova meraviglia:
traduzione in tempo reale di una conversazione!
Sullo schermo ci viene mostrata una conversazione tra un Francese e un Americano:
le parole e le frasi vengono tradotte in tempo reale dall’inglese al francese e
dal francese all’inglese a beneficio dei due interlocutori.
Francamente ne sono
rimasto stupefatto: considerando quanto male funzionano i sistemi di traduzione
automatica (quello di Google per primo), una tecnologia del genere sembrerebbe
fuori portata, almeno al momento, ma l’abbiamo vista.

Secondo lo speaker, questo language model è stato creato da una base
ampissima,
ovvero da tutto il web. Si presume che Google abbia usato il contenuto delle pagine
indicizzate per creare questa base linguistica da cui attingere per suggerire e
correggere. Lo sforzo computazionale necessario per una cosa del genere è
ovviamente
enorme, come la velocità referenziale necessaria per correggere così velocemente.
Sarà interessante vedere un documento tecnico su come tutto questo sia stato possibile.

Tutta questa capacità è demandata a due estensioni di Wave chiamate
Spelly
e Rosy: si tratta di Robot residenti su server che agiscono
sugli wave come un partecipante
umano.
Nella presentazione se ne sono visti diversi: Bloggy per operare sui post
nei blog, Linky che aggiunge da solo i link a parti di testo che
rappresentano collegamenti ipertestuali, Searchy per includere in un Wave le ricerche,
Polly
per creare dei sondaggi (se state ridendo, vi dico che la PM di Wave ha commentato
ironicamente «really clever naming convention…»).

Dal punto di vista sistemistico, poi, ci sono grandi notizie. Tutto il progetto Wave è Open source (o meglio, lo sarà a breve), ma soprattutto è una
piattaforma non esclusiva:
il protocollo, per esempio, è già pubblicato e si può addirittura
discuterne
su gruppi appositamente messi a disposizione da Google.
Google probabilmente
pubblicherà il servizio per il grande pubblico, così come fa più o meno con GMail,
la bellezza, però è che ognuno potrà far girare il proprio server Wave: da questo punto
di vista sarà simile a un sistema di collaborazione o messaggistica tipo Exchange
o Notes. Il prodotto si potrà semplicemente scaricare, installare e configurare:
potrà essere interconnesso con altri server Wave creando capacità collaborativa
immediata senza necessità di impostare nessun tipo di webservice ad hoc.
Se due persone da diverse aziende si trovano a dover collaborare, oggi
semplicemente si scambiano
un indirizzo e-mail: nel futuro sarà forse più semplice scambiarsi
gli indirizzi dei rispettivi Wave server e avviare immediatamente la
collaborazione con tutto il potenziale della piattaforma, dei suoi robot e di
ogni miglioramento messo a disposizione dalla comunità Open Source.

In conclusione è evidente che questo sistema ha la potenzialità per
soppiantare tutti i sistemi di comunicazione e collaborazione tradizionali sia
in ambito casalingo che lavorativo. Il fatto di essere a sorgente aperto ne farà
senza dubbio un prodotto molto appetibile per un gran numero di organizzazioni.
Resta il dubbio su qualcuna delle sua capacità per così dire collaterali
come l’editing dei documenti.
Nonostante tutto, io trovo che questa iniziativa sia una vera rivoluzione nel
mondo della comunicazione. Naturalmente potrebbe fallire clamorosamente come
molte altre tecnologie che abbiamo visto nel corso degli anni, ma da quello che
si è visto in questi pochi giorni, io scommetterei sulla sua sopravvivenza e
prosperità.

Standard
Uncategorized

Star Trek 2.0

La strada è stata lunga, non c’è dubbio, ma quando mi sono seduto in poltrona
al cinema, mi è sembrata che tutta l’attesa non fosse durata se non un minuto.
Naturalmente avete capito che mi sto accingendo a recensire e commentare il
nuovo film di Star Trek diretto dall’ormai ubiquo
J.J. Abrams e costruito dall’affiatato team
che lo segue in tutte le produzioni.
Come tutti probabilmente sapete ,questo film è stato chiamato al difficile
compito di risollevare le sorti del franchise di Star Trek non solo per
quanto riguarda gli introiti monetari, ma anche per il gradimento presso i fans.
La sfida era (ed è ancora) enorme e il risultato merita una analisi un poco
approfondita, qui di seguito.

Nonostante le numerose e continue smentite, da un po’ di tempo si era ragionevolmente
sicuri che il film fosse l’ennesimo reboot ovvero il riavvio di una serie
partendo dalle sue premesse storiche, ma senza troppo curarsi del pregresso di storie
accumulate negli anni. E’ stato fatto per Batman e anche per Superman
, per citare due esempi illustri e recenti; Star Trek, obiettivamente, era un
candidato perfetto per
il giro successivo.
Dalle prime indiscrezioni e dichiarazioni, sembrava che gli sceneggiatori avrebbero sfruttato
alcune parti non raccontate della storia iniziale della saga per fare un prequel
della Serie Classica, ma con il passare
delle settimana e e con l’infittirsi delle discussioni e interviste, divenne
alla fine chiaro che in realtà la strada verso cui si andava era il reboot puro
e semplice, eventualmente tenendo buona solo la parte di storia precedente la
nascita di Kirk, essenzialmente la serie Enterprise.

Per prima cosa il titolo: Star Trek senza numero, senza sottotitolo,
niente che lo posizioni rispetto alle altre produzioni, dagli anni ’60 al nuovo
millennio. Apparentemente Abrams e soci hanno voluto sottolineare la forte
discontinuità tra questo film e tutto il resto di Star Trek che è cancellato, letteralmente,
o da relegare nella profondità dei ricordi. Questo non
è un nuovo capitolo, ma è il capitolo, l’unico della serie, di una serie,
evidentemente, del tutto nuova.

Ammetto di essere andato al cinema con l’idea che il film non mi sarebbe
piaciuto,
anzi sapendo che il film non mi piaceva.
Dico questo perché, seguendo i trailers, le interviste e le indiscrezioni (senza contare la lettura di Countdown)
che sono circolate nei mesi e nelle settimane a ridosso dell’uscito del film,
era relativamente semplice fare due più due e dedurre buona parte della
trama del film e del suo svolgimento. Mi sono quindi recato al cinema con un
preconcetto
ben fissato in testa e per una buona parte del primo tempo, il mio pregiudizio ha
condizionato la visione del film.

Il film si apre in maniera brusca nel pieno dell’azione, tutto il primo tempo
è una corsa verso il varo della nave stellare Enteprise attraverso la giovinezza
di Kirk e Spock. Il salto tra l’Iowa e Vulcano, tra l’Accademia delle Scienze e
un bar sperduto è istantaneo e brusco. Il ritmo del film è concitato fino all’estremo,
in pratica deve condensare 25 anni di storia in meno di un ora, come una introduzione
del concetto e dei personaggi, per poi dedicarsi alla vera avventura che è il tema
del film: la sete di vendetta di Nero e la difesa della Flotta Stellare. In parallelo
a questa storia, e proprio in conseguenza di questa, prende forma l’equipaggio di
plancia che tutti conosciamo dalla Serie Classica, per poi apparire nella sua forma
finale nelle ultime scene della pellicola.

La primissima parte del film è obiettivamente un po’ approssimativa: la scena dell’automobile
presa in prestito dal giovanissimo Kirk, non va oltre i pochi secondi mostrati
nel trailer e onestamente non aggiunge molto al personaggio, se non un breve accenno
al rapporto tormentato con il patrigno. Accenno che però è esageratamente breve
e che avrebbe potuto essere eliminato del tutto senza danno. Altrimenti avrebbe dovuto
essere ampliato almeno un poco.
Sorte migliore è toccata al giovane Spock che, per quanto goda di pochi minuti di
tempo, viene tratteggiato con più cura ed efficacia. Anche la sua udienza presso
l’Accademia è almeno altrettanto efficace della scena nel bar (che è il momento equivalente
per Kirk) seppur con meno tempo a disposizione.
Una cosa che mi ha incuriosito molto, ma che non sicuro che tutti condivideranno,
è la dinamica tra Pike e Kirk dopo la scazzottata nel bar: per 30 secondi ho avuto
l’impressione di assistere a un dialogo tra i due personaggi di Mark Harmon e

Michael Weatherly nella popolare serie televisiva NCIS. Non è una cosa causale,
a mio avviso.
Nel bar c’è anche tempo per un breve riferimento alla Federazione e alla sua
missione di pace nella Galassia: mi è sembrata una descrizione un po’ ingenua e
sbrigativa, evidentemente buttata lì per introdurre il concetto a un neofita. Si
poteva pensare meglio questo intervento dedicandogli solo pochi secondi in più.

Poco dopo si passa alla famosa e famigerata simulazione della Kobayashi
Maru
che, dopo aver pervaso la mitologia Trek per quasi due decenni,
finalmente
ci viene mostrata nella sua interezza (almeno per quanto riguarda questo universo
alternativo).
Durante la simulazione, il comportamento di Kirk è sopra le righe in maniera
esagerata, ma è forse un atteggiamento ricercato, più che altro, per mostrarsi
un po’ spaccone. Non sono del tutto sicuro che l’interpretazione sia efficace,
ma il tentativo è probabilmente lodevole.
La ricostruzione del sabotaggio vero è proprio è grossomodo come me la sono
sempre immaginata. Molti fans si sono lamentati del fatto che sia stata rappresentata
male, ma è sempre stato evidente che quella fosse una manovra molto “sporca”
da parte di Kirk ed è ovvio che non ne sarebbe potuto uscire immacolato. Buona l’idea
del confronto tra aKirk e Spock su questo argomento: serve a dar voce alle
ragioni di Kirk e
a introdurre il pessimo rapporto tra i due. Dato il poco tempo a disposizione e la situazione pregressa,
non credo si potesse farla molto diversamente da così.

Passiamo adesso a un altro punto importante: il cattivo di turno.
Sono state mosse a Nero critiche per il fatto di non rappresentare un cattivo
di spessore
, un antagonista vero che possa convincere. Non sono sicuro di essere
d’accordo.
Nero è un cittadino qualunque con una forte predisposizione alla leadership
e con una grande rabbia dentro. La sua sete di vedetta è l’unica cosa che lo definisce,
dopo la perdita della famiglia e della sua intera civiltà, di conseguenza non ci si deve stupire che il
personaggio sia monodimensionale: è stato
creato così. Per una ragione.

Piuttosto, la cosa veramente assurda di tutta la faccenda è il modo in cui tutto
è iniziato. L’avvio della storia è raccontato nel fumetto Countdown già menzionato
sopra. Lì viene raccontata la storia della stella Hobus e della sua potenza
distruttiva che ha consumato Romulus e il resto dell’Impero Stellare Romulano. Tutta
la (fanta-)scienza dietro questo fenomeno è fragilissima, anzi inesistente, così
come è assurdo il modo in cui Nero entra in possesso della tecnologia con cui
modificare
la Narada per trasformarla nell’arma invincibile che è nel film. Questo sì è il
punto più fragile di tutta la trama.
E’ un guaio, perché è la fondazione dell’intera storia: ha ragione chi dice che,
se questa parte è debole o peggio (come in effetti è), il resto della storia non
può far altro che poggiare su fondamenta di burro e crollare come un castello di carte.
E’ vero, non si può negare, ma se volgiamo essere realisti, dobbiamo dire che, per
quanto le fondamenta fossero brutte e deboli, il castello di carta è risultato
molto efficace e affascinante. Dobbiamo forse turarci il naso e non buttare il
bambino con l’acqua sporca.
Possiamo anche fare fare un paragone con altri
film: questo non è certo il primo in cui la trama lascia a desiderare.
Nel
sempre citato STII, tutta la faccenda dei due pianeti di Ceti Alfa è piuttosto debole, così come gran parte del combattimento
finale nella nebulosa è
inconsistente. Questo non ha impedito al film di diventare, a ragione, il
favorito dai fan.
Altre critiche analoghe si possono muovere al quarto film,
altro gran successo di gradimento.
Da purista, mi rendo conto di dire una eresia, da persona disillusa che sa come
gira il Mondo, dico che forse faremmo meglio ad accontentarci, almeno per il momento
(torneremo sull’argomento fra poco).

Dall’inizio del secondo tempo in poi, con quasi tutte le tessere del puzzle
al loro posto, io ho iniziato a sentire una certa emozione trasmessa dal film.
Alcuni affermano che il pathos non viene dalla storia che
lascia con il fiato sospeso, ma piuttosto è creato artificialmente da un accurato montaggio e da
qualche trucco cinematografico. Probabilmente è vero, ma diciamoci la verità,
nei precedenti film la cosa è mai stata diversa? Qualche dubbio che la Terra
non sarebbe stata salvata all’ultimo dalla distruzione nel I e
nel IV film? E qui la distruzione di Vulcano non vi ha colpiti,
invece?
Qualche dubbio sulla sorte che sarebbe toccata a Khan, Soran, Shinzon o Ru’afo?
Incerti sulla sorte dell’equipaggio e delle Enterprise in III, IV e VII?
Siamo obiettivi: dal punto di vista delle sorprese questo film non fa né più

meno degli altri. Certamente non è una buona notizia che la situazione non sia
migliorata, però almeno lodiamo la voglia di trasmettere un emozione al pubblico,
seppure con qualche interevento di mestiere sulla pellicola.

Qualcuno mi ha anche fatto notare che la pellicola manca di alcune
caratteristiche fondamentali che da sempre associamo a ST, come ad esempio una
visione positiva del futuro e una evoluzione socialmente migliorativa non solo
dell’Essere Umano, ma anche dei suoi alleati e amici alieni.
Certo, questo non è il tema dominante della storia, però abbiamo visto qualcosa,
almeno in forma embrionale: il riferimento alla Federazione con termini
forse un po’ ingenui, ma positivi; il fatto che Kirk provi compassione
per Nero e metta la diplomazia davanti alla vendetta della vendetta; la
determinazione dei Vulcaniani a passare oltre un genocidio e a buttarsi
a capofitto sulla creazione di una nuova Patria (per inciso, spero che
questo sia un punto centrale del prossimo film…).

Sono pochi passi, per carità, però mi sembrano nella direzione giusta.
Aggiungo un altra cosa: un film che veramente esplorava delle questioni morali
importati è stato Insurrection. Onestamente avreste preferito vedere un
film simile a quello o, al contrario, simile a l’Ira di Khan?
Stiamo attenti a non cadere in contraddizione: vogliamo un film godibile o uno
che sia significativo? Le due cose insieme non sono facili da ottenere: questo
film è un tentativo in questo senso, anche se un po’ debole. Però non diamogli
contro per partito preso, pensiamoci bene prima di e soprattutto come criticare.

Il resto della produzione in generale merita un discorso a sé. Qualche spettatore
delle anteprime ha scritto che questo è Star Trek a un livello mai visto.
Io, più prudentemente, dico che è un film di fantascienza come se ne sono visti
pochi.
Gli effetti speciali, per quanto non facciano vedere niente di nuovissimo
(alcune idee mi sembrano prese in prestito dalla

nuova Battlestar Galactica
), sono
allo stato dell’arte per quanto riguarda il realismo. Non c’è veicolo o
panorama o personaggio che non sembrino reali quanto il mio vicino di posto in
sala.
Ma questa è ordinaria amministrazione, al giorno d’oggi. La cosa che veramente
mi ha stupito è stata la fotografia nel suo insieme: visualmente il film è
impressionante, non saprei trovare altri aggettivi e lo trovo obiettivamente
difficile
da descrivere a parole.
Bisogna veramente vederlo per rendersi conto di quello che
è. Ogni scena e ogni inquadratura sono studiate in maniera apparentemente
maniacale, credo che per ognuna di esse, Abrams potrebbe raccontarci una storia:
da questa prospettiva il film ha veramente pochi rivali.

C’è da rilevare un curioso contrasto fra alcune aree delle navi stellari – plancia
e corridoi in primo luogo – e quelle ‘tecniche’: le prime sembrano linde e
pulite come e più eravamo abituati, al contrario le seconde sono grezze quanto una nave
commerciale del nostro periodo. In particolare l’hangar delle navette e le sale
macchine sono al limite dello sporco e del fatiscente. La sala macchine della
Enterprise, in
particolare, ha lasciato delusi molti fans, me compreso, ed è probabilmente l’unico
fallimento evidente di una scenografia veramente notevole, che da il suo meglio in plancia
con delle affascinanti console trasparenti, evoluzione estrema dei
rozzi HUD in uso da qualche anno.
Non vi sarà sfuggito il design molto iPod-like di tutta la nave: pareti bianche
e pavimenti neri, tutti lucidi, consolle colorate, comandi a sfioramento e via
dicendo. Mancherebbe solo il logo della Mela: dopo quello della Nokia, non
avrebbe necessariamente peggiorato il danno. Notate che il sito di Quicktime ha
avuto l’esclusiva del materiale promozionale audiovisivo per questo film.
Vorrei
tornare più estesamente sul design e sulla grafica di questo ST, magari in un
post futuro.

La colonna sonora è ben fatta e ci è voluto coraggio per buttare alle ortiche il
classico tema di Star Trek che ci ha accompagnato da The motion picture
fino a Nemesis, per inventarsi una cosa del tutto nuova, pur
ricordandosi di integrare parte della sigla della TOS. Tuttavia ho trovato la musica nel film un po’
troppo invasiva a volte: in particolare durante il corpo a corpo sopra la piattaforma
di trivellazione, mi sembrava che la musica non fosse di supporto all’azione estrema,
ma al contrario quasi ne distogliesse l’attenzione.

Non mi dilungo oltre sulla trama del film e su altri aspetti che potete
probabilmente trovare trattati in maniera esaustiva da molte altre fonti, ma soprattutto
perché sarebbe meglio li vedeste in prima persona al cinema 🙂 Vorrei invece tornare un
attimo a qualche riflessione personale.
Dicevo che il film, pur non convincendomi all’inizio, è cambiato nella mia testa
nel corso della proiezione, man mano che mi rendevo conto di un dettaglio
semplice eppure fondamentale e nascosto:
noi vecchi Trekkers siamo diventati obsoleti.
E’ evidente che questo film è diretto a una nuova generazione di fans della
serie, molto di più di quanto non lo fosse la Next Generation. Questa
pellicola rappresenta la testa di ponte con cui la Paramount vuole non solo
svecchiare l’audience del franchise, ma anche reclutare nuove leve nella grande
famiglia dei Trekkers.
E’ chiaro che questa manovra parte da un interesse commerciale, più che
altro: noi membri di quella che ormai è a tutti gli effetti un vecchia guardia stiamo semplicemente
diventando vecchi,
sia anagraficamente che culturalmente. E’ un dato di fatto che, se Star Trek
vuole continuare a esistere e se la Paramount vuole continuare a farci soldi,
tutto deve cambiare per incontrare il gradimento di un pubblico più giovane,
abituato a spettacoli di tipo ben diverso.
Il fatto di aver ricominciato dalle origini della TOS per avviare questo
cambiamento, serve solo come messaggio per dire «Questo è ancora
Star Trek». I vecchi Trekker avrebbero forse preferito vedere un nuovo
progresso oltre Nemesis, cosa che si è parzialmente vista in
Countdown
, ma la produzione invece ha preferito rifare tutto dall’inizio,
probabilmente pensando di poter riciclare un po’ del buono che si è seminato in
40 anni e di potergli aggiungere il meglio dei progressi contemporanei.

In conclusione, io penso che questo film vada visto in ottica di una sorta di
episodio pilota, non necessariamente (ma chi può dirlo per certo) di una serie TV, quanto
piuttosto di un nuovo franchise che potrebbe rivelarsi tanto ricco
quanto l’illustre precedente da cui prende non solo il nome ma anche le
premesse. In questa prospettiva, non dobbiamo a mio avviso aspettarci il
risultato dai 40 anni di evoluzione della serie, quanto piuttosto il risultato
di 3 o 4 anni di lavoro di un team tutto sommato poco o per niente esperto in
materia.
Come opera prima il risultato e tecnicamente eccellente e contenutisticamente
appena sufficiente, se non insufficiente, ma dobbiamo, a mio modo di vedere,
metterlo allo
stesso livello di The Motion Picture o di The Cage o, direi in
misura minore, degli altri piloti delle serie TV che si sono susseguite.

Molti Trekker hanno detto«Bel film di fantascienza, pessimo o inesistente Star
Trek», io direi invece film di fantascienza di altissimo livello, ma
abbozzo iniziale di una derivazione di Star Trek. Non sono pronto a
stroncare il film nella culla, ma ovviamente non posso perdonare del tutto le
gravi carenze che lo affliggono.
Come prima avventura, a mio parere, può andare soprattutto se riuscirà ad
attrarre l’attenzione di pubblico e stampa di qualità. Ma la festa è finita: da
qui in poi dovrà essere un miglioramento netto.
Se come sembra, avremo già un
nuovo film in un paio d’anni o giù di lì, ci aspettiamo un risultato
decisamente migliore per quanto riguarda l’aspetto prettamente trekkiano
della storia.

Da parte nostra, possiamo decidere se considerare questo solo una derivazione
guasta di una serie di qualità che amavamo, oppure come una nuova
incarnazione
di una Idea che esiste dagli anni ’60 e che ancora non ha finito di evolvere.
Nel secondo caso dobbiamo tornare a entusiasmarci come una volta, a far sentire
la nostra voce e a dare il nostro contributo per far crescere questa nuova
creatura.
Abrams e soci sono avvisati: i vecchi Trekkers possono cambiare ma

non sono sciocchi
, i nuovi fans, pochi o tanti che saranno, non saranno in
ogni caso meno esigenti di noi.
Guardiamoci il film un paio di volte, aspettiamo il DVD, ma intanto mettiamoci
al lavoro: c’è una serie che ha bisogno di noi, del nostro aiuto e delle nostre
critiche, le più costruttive possibili.

Chiudo con un ringraziamento ad Alberto e Antonino con cui ho condiviso
lunghe discussioni dove ho affinato e chiarito molti dei concetti esposti qui.

Standard
Uncategorized

Sicurezza? Un armadio aperto

Ci sono azioni apparentemente causali, normali e innocue che, a volte, mi accendono
in testa una lampadina quando meno me lo aspetto. Questa mattina stavo guardando
casualmente fuori dalla finestra quando ho notato un furgone in parcheggio (parcheggio,
più o meno… diciamo mollato alla bell’e meglio sulle strisce pedonali, ma l’inciviltà
non è l’oggetto del post). Sul tetto vedo due scale a pioli gialle e, nonostante
la mancanza di insegne, deduco dalla sua dotazione standard che si tratti di un
mezzo di Telecom Italia. Ne esce un tecnico di mezza età, con sigaretta, borsetta
a tracolla e foglietto in mano, forse la stampa di una chiamata di assistenza tecnica.
Dotazione standard del tecnico medio, insomma. Si avvicina alla colonnina che sta
davanti a casa, la apre e collega al sua cuffia a un permutatore, evidentemente
per testare il funzionamento della fonia su una linea, forse per una nuova installazione,
forse per un guasto. Dopo pochi minuti il tecnico se ne va senza senza fare niente
di particolare e per questo impiego un paio di minuti a capire che cosa avesse attirato
la mia attenzione, evidentemente a un livello subconscio.

Senza esserne del tutto cosciente, infatti, mi ero accorto di una cosa curiosa:
il tecnico aveva aperto e chiuso l’armadio con una MANIGLIA! Ovvero con un piccolo
pomello a rotazione senza nessuna chiave, lucchetto o perno: in sostanza l’armadio
della TI è esposto così al pubblico ludibrio, non c’è nessun tipo di sicurezza.
Non solo il primo teppista che passa di lì potrebbe decidere di aprirlo e strappare
qualche cavo a caso, ma soprattutto chiunque altro potrebbe accedervi con intenzioni
ben peggiori.

Per qualche mese, sui giornali ha tenuto banco una discussione sulla liceità o meno
delle intercettazioni telefoniche e le modalità della loro autorizzazione. Perché
scomodarsi: chiunque può aprire il pannello giusto e, con una semplice cuffia, intercettare
proprio quello che si vuole. Il sistema analogico a due fili (quello che normalmente
è impiegato nella Rete Telefonica Generale, il nome italiano della PSTN) è molto
semplice e intrinsecamente insicuro, chiunque con un minimo di conoscenza tecnica
può anche inserire nell’armadio un sistema di intercettazione un po’ più complicato
ed essere scoperto chissà quando. Un eventuale sabotatore potrebbe mettere fuori
uso una o più linee RTG o ADSL semplicemente con una forbice: ovviamente sarebbe
un danno limitato nel tempo e semplice da risolvere, ma potrebbe essere molto esteso.

Dalla disinvoltura con cui il tecnico ha aperto e chiuso lo sportello dell’armadio,
deduco che l’impostazione “senza serratura” sia quantomeno molto diffusa, se non
proprio la norma. Ora mi chiedo: è possibile che tutta la RTG italiana sia alla
portata di qualsiasi malintenzionato che passa per strada? Onestamente non mi
sono
mai posto il problema, ma ora mi devo dire preoccupato.
Che fine fa la nostra privacy?
E che senso ha di esistere un SLA, con infrastrutture di questo tipo? Una azienda
(anche PMI) che si pone il minimo problema della sicurezza al suo interno, può scoprire
poi che a 10 metri dalla sua porta di ingresso esiste un evidente e catastrofico
Single Point of Failure? Francamente la cosa mi preoccupa di più ogni ora
che ci penso sopra, ho fatto una breve ricerca su internet e pare che la situazione
sia effettivamente diffusa.

E’ possibile che una azienda così grande e importante come TI cada su una cosa
del genere? Possibile che nessuno si sia mai posto il problema? Che cosa ha da
dire il Security Manager dell’azienda? E il Garante per la Privacy?
Sono senza parole: d’accordo che non possiamo mettere tutti gli armadi con i permutatori
in un caveau, ma non ci vorrebbe molto a mettere almeno un lucchetto o meglio una
serratura con chiavi elettroniche… insomma qualsiasi altra cosa, ma non una
porta aperta!

Standard
Uncategorized

Green IT, andiamo oltre

Negli ultimi anni è diventata pratica comune lasciare i Personal Computer sempre accessi (giorno, notte e fine settimana), non solo a casa, ma anche (e soprattutto) nelle aziende. Per quanto possa essere una semplificazione per alcuni aspetti (come vedremo fra poco), questa policy rappresenta anche uno spreco evidente. Non solo fa consumare energia elettrica in maniera quasi del tutto inutile, ma contribuisce in maniera rilevante all’inquinamento ambientale, specialmente per i Paesi che si servono di energia da fonte fossile (Italia in testa).

Il calcolo della corrente sprecata è presto fatto, almeno a grandi linee: moltiplicate il numero di macchine nella vostra organizzazione per le ore notturne in cui non si lavora sommate alle ore inutili nel fine settimana e per la potenza consumata. Otterrete così il lavoro in kWh sprecato che non solo pagate, ma che fate pagare all’ambiente. La potenza impegnata da un personal computer è un fattore che varia in maniera molto ampia a secondo delle condizioni, ma per un calcolo approssimativo 60W potrebbe essere una cifra ragionevole. Un calcolo più accurato, naturalmente richiede una analisi più approfondita delle componenti hardware de del loro comportamento nel corso della giornata.

Gradatamente nel corso degli anni ’90 sono stati introdotti sistemi di risparmio energia che tuttavia non sempre sono efficaci. Per esempio lo stand-by automatico della macchina dopo qualche ora di inattività, rende spesso inutile lo scopo stesso del lasciare il computer acceso e spesso viene disabilitato. Lo spegnimento automatico dei dischi fissi, spesso porta a una continuo ciclo di accensione e spegnimento che è particolarmente dannoso per la meccanica dei drives, quindi allo stesso modo viene spesso disattivato o fortemente ridotto allungando il tempo di attesa.

Naturalmente, prima di pensare a una soluzione al problema, bisogna pensare alle radici.
Per quale motivo molte aziende tendono a tenere i PC continuamente accesi durante orario non lavorativo?

Il motivo primario è quello di far girare aggiornamenti e scansioni antimalware. In questa categoria ricade banalmente Windows Update sia che venga effettuato centralmente dal sito della Microsoft o (probabilmente a maggior ragione) se viene gestito da un server WSUS interno all’organizzazione. Windows è solo un esempio, il più conosciuto al grande pubblico, naturalmente ogni sistema operativo così come molte applicazioni sono dotati di sistemi di aggiornamento automatico simili. Dato che a volte gli aggiornamenti sono molto pesanti, lunghi da applicare e magari richiedono uno o più riavvii, farli girare durante la notte è una buona idea, soprattutto per evitare la sindrome del il computer non funziona, non posso lavorare, molto comune negli ambienti di lavoro. Anche l’istallazione di applicazioni o la reinstallazione di un PC da zero, sono attività spesso automatizzate o semi-automatiche che un reparto ICT può preferire far girare di notte quando c’è tempo di verificare il buon funzionamento ed eventualmente porre rimedio a un errore.
Per quanto riguarda i software di sicurezza, un antivirus, per esempio, può effettuare non solo l’aggiornamento delle definizioni, ma anche la scansione completa del computer fuori dall’orario lavorativo. Un antispyware si comporta in maniera simile: le scansioni di questa classe di software sono molto intensive sui dischi di sistema e ne modificano le prestazioni in maniera notevole, tanto che di giorno un utente può lamentarsi per una eccessiva lentezza in alcune applicazioni.
Ci sono poi esempi più specifici, ma questa poche righe penso abbiano fato una panoramica generica della situazione. Dopo queste considerazioni, vorrei proporre qualche idea per ovviare al problema.

Tra le soluzioni che possono essere messe in atto in maniera piuttosto veloce, con la tecnologia esistente e al massimo con qualche piccola applicazioni ad hoc ci sono alcune soluzioni interessanti. Il ricorso massivo al Wake-On-LAN, per esempio è un  buon punto di partenza. WOL è una tecnologia integrata nelle schede di rete e nelle schede madre da una quindicina d’anni che permette alla scheda di rete di restare sempre in ascolto anche se il computer è spento del tutto. Un particolare datagramma (detto Magic Packet) spedito in broadcast sul segmento di rete in cui si trova la scheda, permette di effettuare un avvio automatico e completamente remoto della macchina. Questa tecnologia è piuttosto semplice, quasi ubiqua per quanto riguarda l’hardware e molto diffusa nei software di gestione. L’implementazione personalizzata è molto semplice (vi invito al leggere l’apposita voce sulla Wikipedia per più informazioni sulla tecnologia e sulle varie implementazioni), tanto che il codice necessario per farla funzionare in .NET, per esempio, fa parte della mia raccolta di snippets. L’installazione degli aggiornamenti, di software o delle patch potrebbe trarre gran beneficio già dall’adozione ampia di questa tecnologia. Spegnendo semplicemente  i computer durante la notte, il sistema di distribuzione del software (o delle patch o di qualcos’altro, qualunque esso sia) dovrebbe essere in grado di avviare una macchina, effettuare le operazioni software necessarie e dopodiché comandare di nuovo uno spegnimento automatico. E’ una soluzione che mi pare semplice, versatile e facilmente applicabile. La tecnologia del WOL è probabilmente poco conosciuta e, apparentemente poco applicata dal punto di vista software, ma a me sembra una soluzione eccellente, nel brevissimo periodo.

Se guardiamo nel periodo medio-lungo, possiamo elaborare soluzioni appena più sofisticate e molto più efficienti.
Per esempio, una modularità maggiore in tute le componenti hardware sarebbe molto efficace. Gli alimentatori, i trasformatori dovrebbero essere in grado di fornire potenza a livelli discreti più fini, così’ come le ventole dovrebbero essere in grado di smaltire il calore necessario e non di più. Le ventole tachimetriche sono un passo in avanti in questa direzione, in futuro una soluzione più interessante potrebbe essere l’adozione di ventole più piccole, posizionate in maniera strategica da accendere e spegnere a comando e con velocità variabile. E’ una cosa che funziona piuttosto bene nelle macchine server, potrebbe essere applicata anche ai PC di fascia più bassa.

I microprocessori multicore sono il presente e saranno il futuro della pura capacità elaborativa: ognuno di loro dovrebbe essere in grado di gestire le singole aree del microchip in maniera differenziata, accendendo e spegnendo modularmente solo la parte che fornisce la potenza elaborativa effettivamente necessaria al momento. Questo con il doppio beneficio di ridurre il consumo e il calore prodotto (poi da smaltire).

Per quanto riguarda le memorie di massa, le unità a dischi removibili potrebbero essere del tutto spente nella notte, per esempio, mentre i dischi rigidi subiranno in pochi anni una rivoluzione. I dischi fissi a memoria magnetica attuali sono molto diffusi ed estrememamente economici, ma si stanno affacciando sul mercato nuovi dischi a stato solido che funzionano in maniera simile alle flash memory USB. A fronte di una sensibilità ancora alta verso i campi elettrici di forte intensità e una prestazione in lettura scrittura sequenziale peggiore dei dischi magnetici, i dischi a stato solido hanno prestazioni migliori nell’accesso casuale, maggiore leggerezza, resistenza agli urti e un consumo energetico molto minore.

Ultimo, ma non meno importante, le scheda grafiche che al giorno d’oggi consumano e producono calore quanto e più di una CPU potrebbero essere selettivamente spente quando non necessario: un lavoro amministrativo sul PC non richiede la potenza di un applicazione di grafica o di modellazione tridimensionale quindi anche qui le schede dovrebbero essere costruite in maniera più nodulare in modo da fornire solo le prestazioni necessarie in ogni momento e quindi consumare di conseguenza o non consumare del tutto!

Un discorso simile può essere fatto per le perle periferiche esterne. Tastiere e mouse consumano pochissima energia elettrica in quanto sono spesso basati su LED di recente generazione che generano luce con efficienza altissima, questo tuttavia non significa che dovrebbero essere ignorati in un progetto di risparmio energetico complessivo. Potrebbero per esempio essere dotati di un piccolo accelerometro (simile a quello che si trova ormai in tutti gli smartphone e che permette a questi apparecchhi di reagire a scuotimenti o cambi di orientamento in maniera programmata) che permetta ai dispositivi di spegnersi quando non sono sottoposti a sollecitazioni meccaniche e di riaccendersi quando l’utente appoggia le mani sopra (o, addirittura, si avvicina alla scrivania).
I monitor LCD hanno già fatto un passo enorme in avanti verso il risparmio, ci sono poche cose da fare. Anche qui un accelerometro, potrebbe accendere e spegnere il monitor in maniera veloce quando l’utente si avvicina o si allontana. Inoltre un sensore di luce potrebbe automaticamente selezionare il livello di retroilluminazione necessario per bilanciare la luminosità dell’ambiente e non di più.

Infine è necessaria una digressione sui sistemi di climatizzazione dei CED. Come è noto anche ai non addetti ai lavori, la climatizzazione dei data center è un argomento molto “caldo” (permettetemi il bisticcio di parole) in quanto una ottimizzazione della circolazione dell’aria calda e di quella fredda, permette un risparmio energetico e, di conseguenza, anche ambientale. Una strada che tuttavia mi sembra non venga percorsa è quella dell’utilizzo della aria esterna insieme a quella riciclata all’interno della stanza. Mi spiego: molte nazioni occidentali si trovano a latitudini che durante l’inverno vedono temperature ambientali anche piuttosto basse, facilmente nell’ordine di 0-5° C. Notate che questo intervallo di temperature è perfettamente normale per un condizionatore d’aria di livello industriale.
A volte ci troviamo addirittura nella ridicola situazione per cui all’esterno di una stanza ci sono 0° C, un riscaldamento centralizzato cerca di portare la temperatura interna a 20-25° C e un condizionatore lavora per abbassarla a 18° C. Si consuma due volte per niente, è spreco puro!
E vi posso assicurare che non si tratta di una situazione ai limiti, molti di noi si trovano in situazioni simili per tutti i mesi invernali.

Anche nel campo del condizionamento, quindi, ci sono ampissimi margini di miglioramento: partendo dal presupposto che la temperatura raggiunta dai calcolatori in una sala server è estremamente elevata e crescerà probabilmente ancora per qualche anno, non solo sarebbe meglio non riscaldarli, ma anzi, si potrebbe canalizzare appropriatamente il calore e usarlo per riscaldare altri uffici, almeno quelli adiacenti. Ovviamente il calore prodotto da un CED non può essere sufficiente a riscaldare un palazzo intero di uffici, ma una gestione intelligente del calore potrebbe alternativamente espellere all’esterno del complesso l’aria calda durante l’estate e invece canalizzarla negli uffici durante la stagione fredda. Nella stessa maniera, un condizionamento intelligente dovrebbe capire quando pescare l’aria dall’esterno e abbassarne solo un po’ la temperatura (in primavera, ad esempio) o addirittura farla circolare invariata, quando in inverno raggiunge temperatura prossime al congelamento.
Chi si intende un po’ di impianti di condizionamento sa che qui non è c’è niente di fantascientifico, si tratta solo di ripensare i sistemi di riscaldamento, raffreddamento e ricircolo d’aria, integrarli meglio e aggiungergli un po’ di intelligenza rispetto al semplice termostato che siamo soliti usare oggi.

Penso di dover reiterare ed espandere il concetto di cui sopra: in tutto il post non c’è niente di fantascientifico e niente che richieda tecnologie molto al di la di quello che, più o meno, l’informatica è già oggi. La parola d’ordine al giorno d’oggi è Green IT un concetto che viene continuamente ripetuto e che per fortuna molte azienda stanno tentando di mettere in pratica con misure tangibili, anche se gli sforzi mi sembrano un po’ troppo focalizzati su piccole migliorie sui prodotti. L’ICT in generale, invece trarrebbe gran vantaggio da una decisa modifica a livello di sistema visto come informatica e telecomunicazioni nel loro complesso. La strada è tracciata e, come abbiamo visto qui sopra, ci sono idee che possono essere messe in atto subito, altre in poco tempo, ma tutte richiedono un cambio di paradigma e una capacità di ragionare al di fuori dagli schemi.

Standard
Uncategorized

Router hacking

La diffusione degli accessi a int6ernet a basso costo, in particolare delle ADSL ‘per tutti’ ha portato una
conseguente crescita nella commercializzazione di ‘modem’ e piccoli router ADSL.

Si tratta in effetti di Adattatori Terminali ADSL e ADSL+ che inizialmente funzionavano con porte USB, ma che negli anni si sono evoluti in in apparecchi
che integrano il TA, un piccolo modulo di routing, uno switch etherent e altri
ammennicoli, tra cui un hot spot WiFi.

A questo proposito, pochi giorni fa ho avuto un apparecchio commercializzato dalla Telecom Italia che si chiama ‘Pirelli Alice Gate W2+’ amichevolmente detto ‘Vela’ per via della sua forma.

Nell’ambiente questo dispositivo è noto per avere un ottimo hardware, ma un pessimo firmware. Ho cercato
quindi su Internet qualche informazione a propostio e, non senza un po’ di sorpresa, ho trovato molte informazioni per modificare
radicalmente questo apparecchio e per renderlo completamente diverso da quello che la Telecom vorrebbe che fosse.

Questo router è basato sul chipset Broadcom BCM6348, un
dispositivo piuttosto diffuso per questo tipo di applicazioni. In più integra un piccolo switched hub ethernet, sempre di fabbricazione Broadcom.

Tutto il circuito integrato è di produzione Pirelli Broadband Solutions ed è poi rivenduto (o noleggiato) sotto il marchio Alice di Telecom. In effetti il firmware modificato di Telecom
toglie quasi tutte le funzionalità del dispositivo. In pratica lo rende un
normalissimo Terminal Adapter USB e ethernet, senza nessuna capacità di routing, NAT, PAT o port forwarding.

Questa scelta di Telecom è del tutto discutibile, tra l’altro è interessante
notare che i software Pirelli e Telecom sono basati su materiale in licenza GPL, ma nessuna delle due pubblica i sorgenti,
come sarebbe tenuta a fare, dato che questa licenza è virale.

Per questo motivo è molto difficile riportare questo router alle sue funzionalità originali, come da specifiche di tutto l’hardware Broadcom. Tuttavia questo non ha impedito a un gruppetto di volenterosi di costruire un firmware molto evoluto e di rivelarci i segreti della eradicazione del software
Telecom.

Tutte le informazioni necessarie a trasformare questo router sono disponibili in rete, ma di seguito ho
pensato di farne un breve riassunto insieme al racconto della mia esperienza
personale.

ATTENZIONE:

Prima di iniziare questa procedura devo farvi notare alcune cose.

Prima di tutto, la maggior parte di questi apparati è fornita in comodato da
Telecom Italia e non sono quindi di
proprietà del cliente. In questo caso NON potete fare nessuna modifica al
dispositivo, in quanto si tratterebbe di manomissione. Potete modificare l’apparecchio solo se è di vostra proprietà.

In questo caso nessuno può impedirvi di modificarlo come meglio vi aggrada, tuttavia è bene notare che questo è fatto a vostri rischio e
pericolo. La procedura di seguito descritta è stata provata, ma né io né nessuna delle
persone citate vi può fornire garanzie – implicite o esplicite – o assistenza. In più una operazione del genere porta
normalmente alla decadenza immediata di ogni tipo di garanzia sull’apparecchio. Se avete dubbi in proposito, vi consigliamo di rivolgervi al vostro provider.

Ultima nota, se state usando questo apparecchio con servizi aggiuntivi di Alice (ad esempio IPTv o VoIP), NON effettuate nessuna modifica, perchè questi servizi non funzionerebbero più.

Il firmware fornito nell’apparecchio da Telecom Italia è bloccato in modo da non permettere nessun aggiornamento se non da remoto dalla centrale. Tuttavia il firmware è caricato da un bootloader ed è possibile interrompere direttamente da lì il caricamento del software.

Per prima cosa bisogna procurarsi alcuni file che possono essere rintracciati sul sito http://beghiero.myftp.org/firmware/index.php,
i firmware sono ordinati per data e sono divisi per la ‘Vela’ e per modello Telsey Magic. Per la ‘Vela’ sono disponibili due tipi di
firmware, quello originale Broadcom, fornito dal produttore ai clienti, e quello usato sul router 9108 della USRobotics. E’ un router basato sullo stesso chipset e il suo firmware è
stato adattato per la Vela, funziona bene, ma purtroppo non è in grado di accendere correttamente i led anteriori, cosa che l’altro router invece fa. Oltre al file con il firmware scelto, ricordatevi
anche di scaricare il file che azzera le impostazioni: un router W2+ che sia già stato acceso e configurato dalla Telecom,
infatti, deve essere per prima cosa ripulito utilizzando questo firmware.

All’interno del circuito stampato del dispositivo ci sono due contatti per il collegamento di una porta seriale: questa
permetterebbe di vedere l’output del bootloader, tuttavia la costruzione e il collegamento di questa seriale non è cosa semplice, c’e’ una soluzione più facile. Dato che il bootloader si ferma alla pressione di un tasto qualsiasi al momento dell’apparizione del prompt, è
sufficiente fare un corto tra il contatto Tx e quello Rx in modo che i caratteri stampati a monitor vengano reinseriti al prompt: questo interrompe il processo di boot e permette la sostituzione del firmware.

Procediamo aprendo la custodia di plastica che copre il dispositivo, il
coperchio è fissato da tre visti, due sono sul lato e facili da togliere, la terza è sotto,
vicino alla plastica anteriore rossa. Per toglierla è sufficiente sollevare un lembo della etichetta sulla parte anteriore, sotto
si trova la vite da togliere. Una volta rimosse queste tre, la plastica rossa anteriore si toglie tirando, le due parti di plastica grigia si aprono a libro.

Dettaglio dei ContattiScoperto il circuito stampato, dovete individuare i due contatti marcati R276 e R277, si
trovano in alto, vicino al lettore di smart-card. Una volta individuati, dovete metterli in corto circuito usando un filo elettrico
oppure le punte di un paio di forbici isolanti. I due contatti sono molto piccoli, dovete quindi prestare molta attenzione a toccare esattamente
la parte metallica. Una volta cortocircuitati, potete accendere il router, in pochi secondi il bootloader termina e il router entra nella modalità
aggiornamento, ve ne accorgete perchè tutti i led anteriori restano accesi a
parte quello centrale.

A questo punto passate al PC, collegate un cavi di rete ethernet al
connettore più vicino al pulsante di accensione del router e configurate l’interfaccia di rete del PC usando come indirizzo IP 192.168.1.2 (192.168.1.1
è l’indirizzo dell’interfaccia del router, quindi potete usare un indirizzo
qualsiasi tra 2 e 254), come subnet mask 255.255.255.0 e come default gateway 192.168.1.1.
Completata la configurazione, aprite il vostro browser internet e chiamate l’indirizzo 192.168.1.1. Si aprirà la
pagina di upgrade del firmware, a questo punto usate il pulsante Browse per scegliere il file di cancellazione delle impostazioni scaricato in
precedenza e poi Update per caricarlo.

il processo di caricamento impiegherà diversi minuti, dopodichè il router si riavvierà automaticamente. Questo cancella tutte le impostazioni già effettuate (esse infatti impediscono di caricare un firmware
diverso), per finire è necessario ripetete daccapo la procedura e questa volta caricate il nuovo firmware. In alcuni casi è stato necessario ripetere la procedura di
caricamento del firmware (solo questa, la cancellazione sembra funzionare
sempre), ma generalmente al primo o la secondo tentativo tutto funziona senza
problemi.

Sul sito della USRobotics c’e’ una chiara guida alla configurazione
che sarà molto utile sia che configuriate il firmware originale Broadcom che quello USR modificato,
in quanto solo solo esteticamente diversi, ma solo per qualche dettaglio.

Completata tutta questa procedura, vi trovate tra le mani un router completo che supporta i
protocolli di routing più diffusi, oltre a essere un server DHCP e un DNS proxy. Permette la sincronizzazione automatica di un account DynDNS, la configurazione di NAT e PAT e un completo supporto per reti wireless che comprende la cifratura WEP e WPA. Queste sono caratteristiche che si trovano nei migliori router
commerciali e possono essere ottenuti anche in questo dispositivo con uno sforzo modesto, come abbiamo visto.

Ultimo, ma assolutamente non meno importante, un ringraziamento pubblico a Beghiero,
Janniz, Submax, Roleo e JackTheVendicator oltre a tanti frequentatori del forum Il Punto Tecnico e ADSL, è grazie ai loro sforzi che tutte le scoperte che vi ho esposto sono state rivelate (in pratica è tutto reverse-engineering) e tutte le modifiche
implementate.

Grazie davvero.

Standard