ABONAMENTE VIDEO REDACȚIA
RO
EN
Numărul 148 Numărul 147 Numărul 146 Numărul 145 Numărul 144 Numărul 143 Numărul 142 Numărul 141 Numărul 140 Numărul 139 Numărul 138 Numărul 137 Numărul 136 Numărul 135 Numărul 134 Numărul 133 Numărul 132 Numărul 131 Numărul 130 Numărul 129 Numărul 128 Numărul 127 Numărul 126 Numărul 125 Numărul 124 Numărul 123 Numărul 122 Numărul 121 Numărul 120 Numărul 119 Numărul 118 Numărul 117 Numărul 116 Numărul 115 Numărul 114 Numărul 113 Numărul 112 Numărul 111 Numărul 110 Numărul 109 Numărul 108 Numărul 107 Numărul 106 Numărul 105 Numărul 104 Numărul 103 Numărul 102 Numărul 101 Numărul 100 Numărul 99 Numărul 98 Numărul 97 Numărul 96 Numărul 95 Numărul 94 Numărul 93 Numărul 92 Numărul 91 Numărul 90 Numărul 89 Numărul 88 Numărul 87 Numărul 86 Numărul 85 Numărul 84 Numărul 83 Numărul 82 Numărul 81 Numărul 80 Numărul 79 Numărul 78 Numărul 77 Numărul 76 Numărul 75 Numărul 74 Numărul 73 Numărul 72 Numărul 71 Numărul 70 Numărul 69 Numărul 68 Numărul 67 Numărul 66 Numărul 65 Numărul 64 Numărul 63 Numărul 62 Numărul 61 Numărul 60 Numărul 59 Numărul 58 Numărul 57 Numărul 56 Numărul 55 Numărul 54 Numărul 53 Numărul 52 Numărul 51 Numărul 50 Numărul 49 Numărul 48 Numărul 47 Numărul 46 Numărul 45 Numărul 44 Numărul 43 Numărul 42 Numărul 41 Numărul 40 Numărul 39 Numărul 38 Numărul 37 Numărul 36 Numărul 35 Numărul 34 Numărul 33 Numărul 32 Numărul 31 Numărul 30 Numărul 29 Numărul 28 Numărul 27 Numărul 26 Numărul 25 Numărul 24 Numărul 23 Numărul 22 Numărul 21 Numărul 20 Numărul 19 Numărul 18 Numărul 17 Numărul 16 Numărul 15 Numărul 14 Numărul 13 Numărul 12 Numărul 11 Numărul 10 Numărul 9 Numărul 8 Numărul 7 Numărul 6 Numărul 5 Numărul 4 Numărul 3 Numărul 2 Numărul 1
×
▼ LISTĂ EDIȚII ▼
Numărul 35
Abonament PDF

Loguri și metrici în Java

Vasile Mihali
Senior Software Engineer @ Arobs



PROGRAMARE

Suntem într-o formă mai mare sau mai mică dependenți de loguri - aceasta este realitatea. Scopul acestui articol nu este să prezint o anumită tehnologie Java de logare ci nivele superioare de abstractizare pentru colectarea, memorarea și analiza lor. De asemenea, intenția este de a prezenta cum acestea ne ajută pentru a avea o privire de ansamblu mai clară asupra ceea ce se întâmplă în aplicația/aplicațiile noastre dacă logăm informații cu sens și un scop clar definit în utilizarea lor.

Dar ce sunt aceste loguri și de ce avem nevoie de ele? Un mesaj de log este un mic punct, dar mai multe astfel de puncte înseamnă o linie, liniile, o formă sau o direcție care trebuie interpretată. Menționăm mai jos și alte trăsături:

În aplicațiile monolitice gruparea logurilor se face de obicei pe zile i.e. JBoss filename+".yyyy-MM-dd iar analiza lor este de cele mai multe ori anevoioasă, fiind necesare cunoștințe destul de avansate în expresii regulare și comenzi Linux sau scripturi de Python, Scala, etc.. De asemenea, aplicațiile sunt rulate în general de servicii de hosting private (cloud), iar conectarea din exterior necesară preluării acestor fișiere de log, care pot să aibă o mărire considerabilă chiar și arhivate, devine consumatoare de timp. La acestea se adaugă și o îngreunare a procesului de analiză. Astfel că de cele mai multe ori, nu sunt analizate decât atunci când cineva începe să se plângă de o problemă, când sistemul nu mai răspunde cu aceeași viteza solicitărilor sau când o greșeală se repetă pentru o durată de timp îndelungată. Ori în cazul extremis - nu mai funcționează.

Img. Load-balancer/proxy (tutorialspoint.com)

Chiar și în aplicați monolitice începem să observăm sisteme adiacente aplicației noastre (proxy-uri, load-balance) care la rândul lor au loguri care conțin informații importante despre modul în care e folosită aplicația, atacuri de securitate, timpi de răspuns, etc..

Dar ce e de făcut atunci când trecem aplicațiile pe arhitectură descentralizată i.e. micro-services? Cum colectăm atunci aceste loguri de pe fiecare mașină în parte? Cum facem legătura între aceste loguri acolo unde este necesar, cât de ușor puteam realiza acest lucru?

Arhitectură micro-service (tigerteam.dk)

Dacă prelucrăm aceste loguri doar atunci când lucrurile merg prost, s-ar putea, în unele cazuri, să fie prea târziu. De aceea, sunt de părere că o analiză continuă a lor e imperios necesară în fazele de validare, staging. Acest demers se impune și în primele luni de după punerea în producție sau cel puțin până când lucrurile devin stabile. Calitatea de stabil depinde de fiecare funcționalitate / produs / politică a companiei / contract de mentenanță încheiat, etc.. Chiar și în faza de dezvoltare putem avea beneficii dacă urmărim anumite informații/metrici din aceste loguri.

Să nu neglijăm importanța a ceea ce conțin logurile generate de aplicație . Conținutul lor aduce valență pozitivă prin informații care pot fi de ajutor în procesele următoare.

Aici avem libertatea deplină asupra conținutului și putem să ni-l personalizăm cum dorim - recomand totuși folosirea unui template de logare în proiect/module. Întrucât foarte multe aplicații Java enterprise au și module de procesare, migrări de date, task-uri asincron, rapoarte, etc. care nu îți oferă un feedback direct (cum se întâmplă cu un request web) atunci aceste informații devin vitale pentru a putea garanta și cunoaște dacă sistemul funcționează corect.

Soluția aplicată de noi - și nu doar de noi pentru că este o soluție foarte populară și des folosită:

1. ELK (Elastic, Logstash (+ loggregator), Kibana)

Img.Logs - Pipeline (blog.xebia.fr - Vincent S.)

Proces:

  1. Aplicațiile folosesc appender-ul pentru consolă (log4j + slf4j) - stdout.

  2. De aici folosim loggregator (CloudFoundry) - agent care preia stream-ul de date de la stdout.

  3. Logstash primește logurile, le procesează (ETL, transformare date în formate generice, etc.).

  4. Logurile sunt indexate apoi în Elastic.

  5. Folosim Kibana pentru a le afișa.

Astfel se creează un sistem centralizat de loguri a tuturor aplicațiilor/modulelor care deservesc aceluiași scop, cu formate de loguri comune, aceleași formatări de date, decupare de text ce poate fi ignorant, precum și alte îmbunătățiri pentru a le face mai ușor de urmărit, corelat și interpretat.

2. Metrics. Core Metrics.

Librăria de la CodaHale e una dintre cele mai populare librării de metrici folosită în aplicații open source de succes (Cassandra).

Aceasta pune la dispoziție un registru:

Logger log = LoggerFactory.getLogger(MetricsUtils.class);
MetricRegistry metrics = new MetricRegistry();
Slf4jReporter reporter = Slf4jReporter.forRegistry(metrics)
       .outputTo(log)
       .convertRatesTo(TimeUnit.SECONDS)
       .convertDurationsTo(TimeUnit.MILLISECONDS)
       .build();

care e ulterior folosit de către:

1.counter

Counter failedMigrationSessions = metrics.counter(
   MetricRegistry.name(Entity.class, 
   “migration-sessions-failed”));

2.histograme

Histogram migrationSizes = metrics.
  histogram(MetricRegistry.name(MigrationUtilsImpl. 
    class, “migration-sizes”));

3.timer

Timer migrationTimer = metrics.timer(MetricRegistry.name(MigrationUtilsImpl.class, "migration-timer"));

4.altele - care nu intră în scopul acestui articol.

  Apeluri ale metodelor:

public void incIdsToMigrate(long d) {

        migrationSizes.update(d);
}

public void incFailedMigrationSessions() {
        failedMigrationSessions.inc();
}

//migration util class
@Override
public Response migrate(String entityCanonicalName, List idSToMigrate) {

final Timer.Context context = MetricsUtils.getInstance().getMigrationTimer().time();
final MigrationSession migrationSession = 
     new MigrationSession(entityCanonicalName, 
      idSToMigrate.size());
try {

… //validation, others
MetricsUtils.getInstance().incIdsToMigrate(idSToMigrate.size());
….
} finally {
       context.stop();
       if (migrationSession.isGeneralError()) {
                MetricsUtils.getInstance().
        incFailedMigrationSessions();
       }
}

Loguri:

[MetricsUtils.info:110] type=TIMER, name=com....MigrationUtilsImpl.migration-timer, count=463, min=14185.432459, max=120866.415675, mean=48638.78311404348, stddev=33618.49316878979, median=33732.338869, p75=68521.92468899999, p95=120788.85010139999, p98=120866.415675, p99=120866.415675, p999=120866.415675, mean_rate=0.0023544359078945367, m1=2.964393875E-314, m5=2.2626576149598838E-82, m15=4.532485314583121E-30, rate_unit=events/second, duration_unit=milliseconds

[MetricsUtils.info:108] type=HISTOGRAM, name=com…..MigrationUtilsImpl.migration-sizes, count=463, min=4, max=35, mean=19.541666666666668, stddev=12.021644127831763, median=19.5, p75=33.75, p95=35.0, p98=35.0, p99=35.0, p999=35.0

[MetricsUtils.info:104] type=COUNTER, name=com….MigrationUtilsImpl.migration-sessions-failed, count=0

Totodată analiza zilnică/săptămânală a logurilor și corelarea lor cu valori lunare într-o aplicație sau serviciu web și nu numai, ne poate ajuta să monitorizăm starea actuală precum și evoluția aplicației sau cum e folosită pentru a putea răspunde proactiv la noi provocări.

[LoggingFilter.filter:100] 13bd85d2-1464-406a-70ee-99ef10545989 - method=GET code=200 url=workbases - Round trip response duration=25 millis
[LoggingFilter.filter:100] 084f6732-8824-4311-7d3d-d8596f8bfc43 - method=GET code=200 url=workbases - Round trip response duration=29 millis
[LoggingFilter.filter:100] 71ddc0fa-281f-4f80-6664-1374aa14b0c2 - method=GET code=200 url=registrationruns - Round trip response duration=232 millis
[LoggingFilter.filter:100] ebbf5225-7800-46b9-5e1c-bfec7d25dec1 - method=GET code=200 url=registrationruns - Round trip response duration=318 millis
[LoggingFilter.filter:100] cb721bc3-adea-4bfd-708d-8f8a7c39c9aa - method=POST code=201 url= registrationruns - Round trip response duration=5 millis

Acest tip de loguri ne permit să menținem astfel de statistici:

Concluzii:

Trecerea de la aplicații monolitice la arhitecturi distribuite aduce flexibilitate și noi provocări. Una dintre ele e modul în care se realizează logarea, modul cum le salvăm și accesăm. Un aspect important îl are și calitatea informațiilor pe care le logăm. Știm că loguri precum "Save'< entity >'" nu aduc prea mult sens. Astfel trebuie să ne asigurăm ca logăm acele informații "prețioase" care au sens în timp și ne ajută să înțelegem modul în care e utilizat sistemul, precum și performanța actuală a acestuia sau necesitățile viitoare.

O continuă monitorizare a logurilor, corelarea lor poate să ne dea o nouă viziune asupra cum putem îmbunătăți un sistem sau cât de stabil îl putem face. Condiții de bază într-un sistem distribuit sunt vizibilitatea pe care noi o avem asupra a ceea ce se întâmplă și monitorizarea logurilor. Numai așa vom avea posibilitatea să reacționam la variații ( a timpilor de răspuns, a numărului de itemuri procesate pe minut ) care sunt primul semn că nu avem un sistem stabil.

LANSAREA NUMĂRULUI 149

Marți, 26 Octombrie, ora 18:00

sediul Cognizant

Facebook Meetup StreamEvent YouTube

NUMĂRUL 147 - Automotive

Sponsori

  • Accenture
  • BT Code Crafters
  • Accesa
  • Bosch
  • Betfair
  • MHP
  • BoatyardX
  • .msg systems
  • P3 group
  • Ing Hubs
  • Cognizant Softvision
  • Colors in projects

Vasile Mihali a mai scris