Big Data Apache Hadoop
Continuând seria de articole despre “big data”, începută cu introducerea în lumea “big data” în numărul 2 al revistei și urmată de articolul despre bazele de date de tip “nosql” din numărul 3, a venit rîndul unui articol care să prezinte mai pe larg una din tehnologiile semnificative din lumea “big data” și anume Apache Hadoop. Apache Hadoop este un framework care facilitează procesarea unor seturi de date mari și foarte mari, pe mai multe calculatoare folosind un model de programare simplu: paradigma map/reduce. Este proiectat în așa fel, încît să scaleze de o mașiniă la mii de mașini, fiecare din ele punînd la dispoziție putere de procesare și spațiu de stocare. În loc să se bazeze efectiv pe hardware pentru “high-availability”, framework-ul în sine este proiectat în așa fel încît să detecteze erorile la nivel de aplicație.