P:
Kako se postojeće okruženje skladišta podataka može najbolje prilagoditi potrebama velike analize podataka?
A:Pojedinačni projekti skladišta podataka moraju se ocijeniti od slučaja do slučaja. Općenito, u pokušaju rastezanja postojećeg dizajna skladišta podataka kako bi se bolje podnijela analitika velikih podataka postoji temeljni postupak za otkrivanje onoga što treba učiniti. IT profesionalci ovo mogu nazvati "skaliranjem" ili "skaliranjem".
Webinar: Veliko željezo, Upoznajte velike podatke: Oslobađanje podataka glavnih okvira uz Hadoop & Spark Registrirajte se ovdje |
Skaliranje uglavnom uključuje traženje dovoljne snage obrade, dobivanje dovoljne količine memorije i smještaj snažnijih aktivnosti poslužitelja za rukovanje svim većim skupima podataka koje će obraditi posao. Suprotno tome, povećavanje veličine može značiti prikupljanje klastera hardvera za poslužitelj i njihovo umrežavanje u skupinu velikih podataka.
Neki IT stručnjaci sugerirali su da je uobičajena metoda s Apache Hadoop i drugim popularnim alatima i platformama za velike podatke mjerilo razmjera i grupiranje hardvera kako bi se postigli željeni efekti. Međutim, drugi ističu da se pomoću današnje tehnologije skladište podataka može povećati korištenjem strategije nabave koja poslužiteljima dodaje resurse, poput dobivanja većeg broja obrađenih jezgara, zajedno s većom količinom RAM-a.
Bez obzira da li ih povećavaju ili povećavaju, skladištima podataka potrebna su dodatna fizička hardverska sredstva kako bi se mogla nositi s većim opterećenjima podataka. Također im je potrebna dodatna ljudska uprava, što znači i više obuke za unutarnje timove. Puno se planiranja treba baviti projektom kako bi se utvrdilo kakav će stres i pritisak imati veće obim podataka na postojeći zaostavljeni sustav kako bi ga iskoristili za novi ekosustav velikih podataka. Veliki problem su uska grla skladišta, koja zahtijevaju nadogradnju centara za skladištenje, i druge vrste uskih grla koja mogu prekrivati nastali sustav ako se ne riješe.