Latenţa este definită ca "intervalul de timp între stimul şi răspuns" şi este o valoare care ne interesează în multe sisteme de calcul (financiare, jocuri, site-uri web, etc.). În calitate de ingineri ne interesează crearea unui model matematic din care să rezulte valorile minime/maxime/tipice care pot să apară în sistemul nostru (fie el un site web sau un sistem de tranzacţionare automată pe burse).
Cum putem construi un astfel de model? Pentru sisteme simple (embedded) putem să calculăm direct ciclurile de procesor necesare pentru executarea programului. Dar pentru programe tipice există prea mulţi factori ca să putem aplica metoda directă (sistemul de operare, alte procese care rulează concomitent, JIT-ul, GC-ul, etc.). Alternativa pe care o avem este să executăm teste empirice şi să construim modelul pe baza rezultatelor obţinute.
În cazul acesta trebuie să ţinem cont de câteva reguli ca să obţinem un rezultat corect:
Să presupunem că testăm un site web care rulează în Tomcat. Folosind JMeter rulăm un test de încărcare (load test) şi obţinem valoarea medie a lanteţei şi dispersia (standard deviation). Având aceste valori concluzionăm că 99.73% dintre utilizatori vor observa o lanteţă care se încadrează în intervalul medie +-3*dispersie. Suntem încrezători în rezultat pentru că:
Şi totuşi rezultatul ar fi greşit (ceea ce poate să aibă consecinţe monetare grave dacă valorile respective se includ în contracte).
De unde provine problema? Să considerăm un exemplu concret: presupunem (pentru simplitate) că am executat 100 de teste şi valorile de latenţă măsurate au fost următoarele (valorile numerice pot fi accesate aici pentru verificarea calculelor):
Imediat putem observa că valorile se pot clasifica în trei categorii:
O astfel de distribuţie este tipică pentru sisteme medii spre mari din viaţa reală care sunt compuse din multe părţi (gen N-tier architecture) şi se numeşte distribuţie multimodală. Vedem imediat de ce este important acest lucru.
Folosind LibreOffice Calc (sau Excel, după gust) putem calcula rapid că media acestor valori este 40 şi conform regulii trei sigma, 99.73% din utilizatori ar trebui să observe latenţe mai mici de 137. Dacă studiem diagrama observăm că media se află spre partea stângă (nu în centru cum ne-am aştepta) şi percentila 99 este 148, nu 137 cum am calculat. Poate că diferenţa nu pare mare, dar dacă am scris un contract pe baza acestor valori, poate să însemne diferenţa între profit şi pierdere.
Unde am greşit? Să citim încă o dată atent regula trei sigma: "o variabilă normal repartizată ia valori semnificative numai în intervalul (μ-3σ, μ+3σ)".
Problema noastră este că nu avem o distribuţie normală (gaussiană) ci o distribuţie multimodală cum am văzut mai devreme. O metodă pentru evitarea acestor probleme este folosirea modelelor matematice care nu depind de natura distribuţiei.
Omisiunea coordonată (coordinated omission) este o expresie inventată de Gil Tene de la Azul Systems (un JVM alternativ care nu necesită oprirea programelor în timpul GC-ului). Omisiunea coordonată apare dacă programul de test arată în felul următor:
start:
t = time()
do_request()
record_time(time() - t)
wait_until_next_second()
jump start
Cu acest program de test încercăm să trimitem o cerere la fiecare secundă şi să măsurăm latenţa (aceeaşi problemă apare cu orice interval fix de trimitere - de exemplu 100ms - folosim o secundă aici pentru simplitate). Multe programe de test au o astfel de implementare.
Să presupunem că rulăm testul şi (învăţând din greşelile anterioare) raportăm că 85% din cereri vor fi satisfăcute sub 0.5 secunde dacă există o cerere pe secundă. Şi modelul nostru tot greşit ar fi. Să analizăm graficul de mai jos, pentru a stabili cauza:
Pe prima linie avem cererile în timpul testului. Între secunda 3 şi 6 sistemul este blocat (de exemplu din cauza unei pauze de GC). Dacă calculăm percentila 85 din cererile de test vom obţine 0.5.
În schimb dacă avem 10 clienţi independenţi (situaţia pe care încercăm să o simulăm cu testul) valoarea 85% a latenţei va fi 1.5 secunde (de trei or mai mare decât ne-a estimat modelul!).
De unde apare discrepanţa? Problema este că programul de testare şi sistemul testat au colaborat (prin faptul că primul a aşteptat după al doilea cât timp acesta era blocat) ca să ascundă cererile potenţiale care puteau să apară în timp ce serverul era blocat. Așadar, după cum se poate vedea din exemplu, acest lucru duce la subestimarea latenţei.
Din problemele discutate anterior putem să distilăm câteva recomandări care să ne ajute în crearea modelelor robuste: