ABONAMENTE VIDEO REDACȚIA
RO
EN
NOU
Numărul 150
Numărul 149 Numărul 148 Numărul 147 Numărul 146 Numărul 145 Numărul 144 Numărul 143 Numărul 142 Numărul 141 Numărul 140 Numărul 139 Numărul 138 Numărul 137 Numărul 136 Numărul 135 Numărul 134 Numărul 133 Numărul 132 Numărul 131 Numărul 130 Numărul 129 Numărul 128 Numărul 127 Numărul 126 Numărul 125 Numărul 124 Numărul 123 Numărul 122 Numărul 121 Numărul 120 Numărul 119 Numărul 118 Numărul 117 Numărul 116 Numărul 115 Numărul 114 Numărul 113 Numărul 112 Numărul 111 Numărul 110 Numărul 109 Numărul 108 Numărul 107 Numărul 106 Numărul 105 Numărul 104 Numărul 103 Numărul 102 Numărul 101 Numărul 100 Numărul 99 Numărul 98 Numărul 97 Numărul 96 Numărul 95 Numărul 94 Numărul 93 Numărul 92 Numărul 91 Numărul 90 Numărul 89 Numărul 88 Numărul 87 Numărul 86 Numărul 85 Numărul 84 Numărul 83 Numărul 82 Numărul 81 Numărul 80 Numărul 79 Numărul 78 Numărul 77 Numărul 76 Numărul 75 Numărul 74 Numărul 73 Numărul 72 Numărul 71 Numărul 70 Numărul 69 Numărul 68 Numărul 67 Numărul 66 Numărul 65 Numărul 64 Numărul 63 Numărul 62 Numărul 61 Numărul 60 Numărul 59 Numărul 58 Numărul 57 Numărul 56 Numărul 55 Numărul 54 Numărul 53 Numărul 52 Numărul 51 Numărul 50 Numărul 49 Numărul 48 Numărul 47 Numărul 46 Numărul 45 Numărul 44 Numărul 43 Numărul 42 Numărul 41 Numărul 40 Numărul 39 Numărul 38 Numărul 37 Numărul 36 Numărul 35 Numărul 34 Numărul 33 Numărul 32 Numărul 31 Numărul 30 Numărul 29 Numărul 28 Numărul 27 Numărul 26 Numărul 25 Numărul 24 Numărul 23 Numărul 22 Numărul 21 Numărul 20 Numărul 19 Numărul 18 Numărul 17 Numărul 16 Numărul 15 Numărul 14 Numărul 13 Numărul 12 Numărul 11 Numărul 10 Numărul 9 Numărul 8 Numărul 7 Numărul 6 Numărul 5 Numărul 4 Numărul 3 Numărul 2 Numărul 1
×
▼ LISTĂ EDIȚII ▼
Numărul 15
Abonament PDF

Clustering for High-Dimensional Data Sets

Lucian Brăescu
Software Developer
@Accesa



DIVERSE


Clustering (gruparea) este o metodă de a analiza date obţinute prin măsurători. Aceasta ne permite să grupăm datele în clase şi să utilizăm aşa-numitele clase obţinute drept bază în învăţarea automată. De asemenea, aceasta oferă analizarea mai rapidă a măsurătorilor sau valori aproximative ale unor măsurători viitoare, prin extrapolare. În secţiunile care urmează vom încerca să acoperim subiectul referitor la gruparea datelor. Această tehnică este utilă în special atunci când avem de-a face cu cantităţi mari de date, un scenariu care nu este neobişnuit având în vedere explozia de date şi informaţii din zilele noastre.

Introducere

Clustering este un proces care examinează o colecţie de "puncte" şi grupează aşa-numitele puncte în "clusters" (grupe) potrivit unor măsurători ale distanţei. Scopul principal al procesului de clustering (al grupării) este să se obţină o stare în care punctele din acelaşi cluster (aceeaşi grupare) să aibă o distanţă mică unul faţă de altul, iar punctele din grupe diferite să fie la o distanţă mare unele de altele. Definirea termenilor de distanţă "mare" şi "mică" depinde de domeniul în care se aplică clustering (gruparea).

Un exemplu de clustering într-un spaţiu bi-dimensional poate fi văzut în următoarea imagine:

Totuşi, probleme moderne de clustering implică spaţii euclidiene de dimensiuni foarte mari sau şi mai amuzant este cazul în care sunt implicate spaţii care nu sunt euclidiene, făcând astfel ca măsurarea distanţei să nu fie deloc intuitivă.

Un scenariu de clustering posibil în lumea reală poate fi nevoia de a grupa documente după subiectul lor, în baza existenţei unor cuvinte neobişnuite, comune în documente sau cerinţa de a grupa persoanele care merg la film după tipul filmelor care le plac, în contextul diverselor proceduri de afaceri.

Conceptul de distanţă este o măsură descrisă prin câteva proprietăţi principale. O măsură de distanţă este întotdeauna non-negativă (numai distanţa dintre un punct şi sine însuşi este zero), este simetrică (nu contează ordinea în care sunt luate în considerare punctele atunci când măsurăm distanţa dintre ele) şi trebuie să respecte inegalitatea triunghiului (distanţa de la X la Y la Z nu este niciodată mai mică decât distanţa care merge direct de la X la Z).

Strategii de clustering (grupare)

Există două tipuri de strategii de clustering: algoritmi ierarhici şi algoritmi point-assignment.

Algoritmii ierarhici încep cu fiecare punct în propriul său cluster, combină clusteri-i în funcţie de diferitele definiţii de "apropiere" şi se opreşte atunci când combinaţii suplimentare ar duce la formarea unor clustere indezirabile (de exemplu atunci când am ajuns la un număr predeterminat de cluster-e pentru domeniul nostru sau când un cluster rezultat are puncte care sunt împrăştiate pe o regiune mult prea mare).

În algoritmii de atribuire a punctelor, punctele sunt luate în considerare într-o anumită ordine şi fiecare dintre ele este atribuit cluster-ului în care se potriveşte cel mai bine. Aceasta este de obicei precedată de o fază scurtă în care se estimează cluster-ele iniţiale. Ocazional, variaţii ale acestor algoritmi combină sau separă cluster-ele sau permit punctelor să fie dezatribuite, dacă acestea se află prea departe de oricare dintre cluster-ele actuale, pentru a reduce zgomotul.

"Blestemul" dimensionalităţii

Acest "blestem" să referă la fenomenele diverse care apar în contextul unor cantități mari de informație atunci când analizăm şi organizăm datele în spaţii supra-dimensionale. Tema comună a acestor probleme este că atunci când dimensionalitatea creşte, volumul spaţiului se măreşte atât de repede încât datele disponibile devin împrăştiate. Această raritate este problematică pentru orice metodă care necesită relevanţă statistică. Pentru a obţine un rezultat corect şi de încredere din punct de vedere statistic, cantitatea de date necesară pentru a susţine rezultatul creşte deseori exponenţial cu dimensionalitatea. De exemplu, spaţiile euclidiene supra-dimensionale şi de asemenea spaţiile non-euclidiene au un număr de proprietăţi non-intuitive, cum ar fi faptul că aproape toate perechile de puncte sunt distanţate în mod egal unele de altele sau aproape oricare doi vectori sunt ortogonali.

Clustering ierarhic

Pentru spaţiile euclidiene, cluster-ing (gruparea) începe cu fiecare punct în propriul său cluster şi apoi cluster-e mai mari vor fi construite prin combinarea a două cluster-e mai mici. În acest scenariu trebuie să decidem dinainte cum vor fi reprezentate cluster-ele, cum vom alege pe care două clustere să le unim şi când vom înceta să mai combinăm cluster-ele. Algoritmul de bază este ilustrat în figura de mai jos:

Pentru spaţii non-euclidiene trebuie să utilizăm o măsurare a distanţei care este calculată din puncte cum ar fi Jaccard, cosinus sau edit distance. O restricţie în acest scenariu este aceea că nu putem să bazăm distanţele pe "locaţia" punctelor. O altă restricţie este că nu putem să reprezentăm un cluster prin centroidul său şi astfel trebuie să alegem unul dintre punctele cluster-ului drept reprezentant echivalent şi în mod ideal, acesta ar trebui să fie un punct apropiat de toate celelalte puncte ale cluster-ului, astfel încât într-un fel să se găsească în "centru". Un asemenea punct este numit un clustroid şi poate fi obţinut prin următoarele tehnici:

  • Minimizarea sumei distanţelor la celelalte puncte din cluster,
  • Minimizarea distanţei maxime la un alt punct din cluster,
  • Minimizarea sumei pătratelor distanţelor la celelalte puncte din cluster.

Point-assignment Clustering (Clustering prin atribuirea punctelor)

Vom prezenta doar doi algoritmi de point-assignment clustering în secţiunea următoare, dar pot exista variaţii în funcţie de cerinţele diferitelor domenii.

Algoritmul K-means - presupune un spaţiu euclidian şi de asemenea numărul clusterelor, k, este cunoscut dinainte. Se poate deduce valoarea lui k prin încercare şi eroare sau alte metode. Algoritmul de bază este ilustrat în figura de mai jos:

O variaţie a acestui algoritm este BFR (Bradley, Fayyad şi Reina), algoritm ce ne permite să executăm k-means pe datele care sunt prea mari pentru a încăpea în memoria principală. Aceasta presupune că forma cluster-ului trebuie să fie distribuită normal în jurul centroidului, de exemplu, axele cluster-ului trebuie să se alinieze cu axele spaţiului, presupunere ilustrată în figura următoare.

Algoritmul începe prin selectarea k puncte. Punctele din fişierul de date sunt citite pe bucăţi şi fiecare bucată trebuie să conţină suficient de puţine puncte astfel încât acestea să poată fi procesate în memoria principală. Algoritmul depozitează în memoria principală rezumate ale clusterelor k şi alte date de ajutor, dar nu datele principale care sunt procesate.

Algoritmul CURE (Clustering Using REpresentatives) - Grupare utilizând reprezentanţi - este utilizat pentru clustering la scară largă şi nu presupune nimic în legătură cu forma cluster-elor. În loc să reprezinte cluster-ele prin centroidul lor, acesta foloseşte o colecţie de puncte reprezentative care se află la o distanţă cât mai mare posibil unele de altele şi care definesc graniţele cluster-ului.

Algoritmul trece apoi la atribuirea unor puncte noi clusterelor, în funcţie de cel mai apropiat punct reprezentativ. O ilustrare a rezultatului clustering-ului se poate vedea în figura de mai jos şi este o formă clar diferită de rezultatele procesului de cluster-ing prin algoritmii anteriori:

Concluzii

Analiza prin cluster sau clustering-ul este sarcina de a grupa un set de obiecte astfel încât obiectele din acelaşi grup numit cluster se aseamănă între ele într-un fel sau altul mai mult decât cu cele din alte clustere. Aceasta se foloseşte de obicei în extragerea datelor în scop de explorare şi analize de date statistice, utilizate în multe domenii precum învăţarea automată, recunoaşterea tiparelor, analiza imaginii, recuperarea de informaţii şi bioinformatica.

Analiza cluster nu este definită printr-un algoritm specific, dar sarcina generală care trebuie rezolvată poate fi îndeplinită prin diverşi algoritmi care diferă prin definirea a ceea ce constituie un cluster şi care este modul optim de a-i găsi.

Referinţe

"Mining of Massive Datasets", Anand Rajaraman, Jure Leskovec, Jeffrey D. Ullman Stanford University

S. Guha, R. Rastogi, and K. Shim, "CURE: An efficient clustering algorithm for large databases," Proc. ACM SIGMOD Intl. Conf. on Management of Data

NUMĂRUL 149 - Development with AI

Sponsori

  • Accenture
  • BT Code Crafters
  • Accesa
  • Bosch
  • Betfair
  • MHP
  • BoatyardX
  • .msg systems
  • P3 group
  • Ing Hubs
  • Cognizant Softvision
  • Colors in projects