Windows

Big Data 3 Vs - Concepts & Models

Big Data's Volume, Velocity, and Variety (3 Vs)

Big Data's Volume, Velocity, and Variety (3 Vs)

Innehållsförteckning:

Anonim

Termen "data" är inte ny för oss. Det är en av de främsta sakerna som lärs när du väljer informationsteknik och datorer. Om du kan komma ihåg data betraktas den råa informationen. Även om det redan finns ett decennium, är termen Big Data en buzz dessa dagar. Som det framgår av termen är massor och massor av data Big Data och det kan bearbetas på olika sätt med olika metoder och verktyg för att skaffa nödvändig information. Denna artikel talar om begreppen Big Data, med hjälp av de 3 V som nämns av Doug Laney, en pionjär inom datalagring som anses ha initierat fältet Infonomics (Information Economics).

Innan du fortsätter kanske du vill läsa våra artiklar om grunderna för Big Data och Big Data Usage för att förstå kärnan. De kan lägga till upp till det här inlägget för ytterligare förklaring av Big Data-koncept.

Stor data 3 Vs

Data, i sin enorma form, ackumulerades via olika medel, arkiverades korrekt i olika databaser tidigare och dumpades efter en tid. När konceptet framkom att desto mer data, desto lättare är det att ta reda på - annan och relevant information - med rätt verktyg började företagen lagra data under längre perioder. Det här är att lägga till nya lagringsenheter eller använda molnet för att lagra data i vilken form data som anskaffades: dokument, kalkylblad, databaser och HTML osv. Det ordnas sedan i rätt format med hjälp av verktyg som kan bearbeta stora bitar av Data.

OBS: Omfattningen av Big Data är inte begränsad till de data du samlar in och lagrar i dina lokaler och moln. Den kan innehålla data från olika andra källor, inklusive men inte begränsade till objekt i det offentliga området.

3D-modellen för stora data baseras på följande V: s:

  1. Volym: avser hantering av datalagring
  2. Hastighet: hänvisar till databehandlingens hastighet
  3. Variety: avser att gruppera data för olika, till synes orelaterade datasatser

Följande stycken förklarar Big Data modellering genom att prata om varje dimension (varje V) i detaljer.

A] Volymen av stora data

Prata om stora data, man kan förstå volymen som en stor samling av rå information. Även om det är sant handlar det också om lagringskostnader för data. Viktiga data kan lagras både lokalt och molnt, det senare är det flexibla alternativet. Men behöver du lagra allt och allt?

Enligt en vitbok utgiven av Meta Group, när datamängden ökar, börjar delar av data att se onödigt ut. Vidare anges att endast den datamängden bör behållas som företagen avser att använda. Annan data kan kasseras eller om företagen är ovilliga att släppa bort "förmodligen icke-viktiga data", kan de dumpas på oanvända datoranordningar och till och med på band så att företagen inte behöver betala för att lagra sådan data.

Jag använde "förmodligen obetydlig data" eftersom jag också tror att data av någon typ kan vara nödvändiga av någon verksamhet i framtiden - förr eller senare - och sålunda måste det hållas en bra tid innan du vet att uppgifterna är verkligen icke-viktigt. Personligen dumpar jag äldre data till hårddiskar från yesteryears och ibland på DVD-skivor. De viktigaste datorerna och molnlagringen innehåller de data som jag anser vara viktiga och vet att jag ska använda. Bland dessa data finns det också en gångs typ av data som kan hamna på en gammal hårddisk efter några år. Ovanstående exempel är bara för din förståelse. Det kommer inte att passa beskrivningen av Big Data eftersom mängden är ganska mindre jämfört med vad företagen uppfattar som Big Data.

B ] Hastighet i stora data

Processdataens hastighet är en viktig faktor när man talar om begreppen Big Data. Det finns många webbplatser, särskilt e-handel. Google hade redan medgett att hastigheten vid vilken en sidladdning är nödvändig för bättre rankningar. Bortsett från rankingen, ger hastigheten också komfort för användarna medan de handlar. Detsamma gäller för data som behandlas för annan information.

Medan du pratar om hastighet är det viktigt att veta att det ligger bortom bara högre bandbredd. Den kombinerar lättanvända data med olika analysverktyg. Lätt användbar data betyder några läxor för att skapa strukturer av data som är lätta att bearbeta. Nästa dimension - Diversitet sprider ytterligare ljus på detta.

C] Olika stora data

När det finns massor och massor av data blir det viktigt att organisera dem så att analysverktygen enkelt kan bearbeta data. Det finns också verktyg för att organisera data. Vid lagring kan uppgifterna vara ostrukturerad och av någon form. Det är upp till dig att ta reda på vilken relation det har med andra data med dig. När du har redogjort för förhållandet kan du hämta lämpliga verktyg och konvertera data till önskad form för strukturerad och sorterad lagring.

Sammanfattning

Med andra ord är Big Datas 3D-modell baserad på tre dimensioner: USABLE-data som du äger korrekt märkning av data och snabbare bearbetning. Om dessa tre är omhändertagna kan dina data lätt bearbetas eller analyseras för att räkna ut vad du vill.

Ovanstående förklarar båda koncepten och 3D-modellen för Big Data. Artiklarna som är länkade i andra stycket kommer att visa ytterligare stöd om du är ny på konceptet.

Om du vill lägga till något, vänligen kommentera.