Ho messo da parte in questi anni un bel po’ di materiale e documentazione relativi alla performance e ottimizzazione dei siti web, sia per quanto riguarda il cosiddetto lato server, sia per quello che viene chiamato front end.
Verrà – spero presto – il momento di compilare un elenco ragionato di tutte queste risorse (potete farvene un’idea visitando la sezione optimization del mio delicious), ma ora mi limito a citare un articolo che propone in modo molto chiaro uno dei nodi fondamentali da affrontare. Si tratta di Lazy web sites run faster scritto da Gojko Adzic.
Per aumentare le performance dei siti potete investire sull’hardware, quindi più processori e sistemi più veloci, migliore connettività, infrastruttura moderna. Vi accorgerete però che anche così facendo il web server fatica, per architettura, a gestire un sito il cui codice non sia ottimizzato.
Potete allora dedicarvi alla riscrittura (o refactoring) del codice per renderlo più veloce. Anche qui però arriverete ben presto a un limite.
Il segreto, secondo Gojko, sta invece nella progettazione di un sistema che si preoccupi di
- delegare le operazioni più complesse a processi che girano in background;
- non comunicare con sistemi esterni in modo sincrono, non importa quanto velocemente;
- essere pigro: meglio lasciare per dopo tutto quello che non ha necessità di essere eseguito al momento.
Aggiungerei anche di eliminare le elaborazioni inutili, come per esempio l’esecuzione a ogni richiesta di interrogazioni esose (come quelle verso i database) per contenuti che non cambiano quasi mai. In questo caso potrebbe essere interessante sperimentare qualche meccanismo di caching.
Se ripenso ai colli di bottiglia dei progetti che ho visto da vicino, la maggior parte poteva essere evitata rimandando operazioni non immediatamente essenziali, come per esempio:
- l’invio di un messaggio di posta elettronica di conferma;
- la trasformazione di file (soprattutto in formato XML);
- la comunicazione con sistemi di gestione;
- il calcolo di statistiche.
Capita di trovare anche online degli esempi che fanno riflettere. Ogni volta che utilizzo la funzione “all time” di Feedburner per analizzare il traffico complessivo dei miei feed mi trovo ad aspettare almeno una decina di secondi. Probabilmente il sistema sta elaborando il consuntivo in tempo reale, quando avrebbe potuto farlo a priori. Non c’è nulla di male ad aspettare anche se a volte, per carico del server, viene restituito un timeout. Forse non proprio il modo ideale per gestire questa funzionalità, anche se utilizzata da una minoranza.
Credo che il concetto alla base sia quello del QRM elaborato da Ryan Suri ed adattato alla produzione sul Web. QRM sta per Quick Responce Manufacturing ed è un metodo per velocizzare i tempi di risposta nelle linee di produzione. Il principio di base è la riduzione di tutti i Lead Time: ovvero tutti quei tempi intermedi che occorrono per avere un prodotto finito. Non si tratta del generale JIT (Just in Time), ma di una vera e propria rivoluzione. C’è stato scritto un libro di 500 pagine, non credo di essere capace di riassumere più brevemente!
Ciao
@patrizio – L’argomento sembra interessante. Hai da consigliare qualche risorsa, soprattutto per quanto riguarda l’applicazione a tematiche web?