Голяма информация

Автор: Robert Simon
Дата На Създаване: 19 Юни 2021
Дата На Актуализиране: 7 Може 2024
Anonim
Голяма Информация !!!
Видео: Голяма Информация !!!

Съдържание

Определение - Какво означава Big Data?

Големите данни се отнасят до процес, който се използва, когато традиционните техники за извличане и обработка на данни не могат да разкрият прозренията и смисъла на основните данни. Данните, които са неструктурирани или чувствителни към времето или просто много големи, не могат да бъдат обработвани от двигатели на релационни бази данни. Този тип данни изисква различен подход за обработка, наречен големи данни, който използва масивен паралелизъм на леснодостъпния хардуер.


Въведение в Microsoft Azure и Microsoft Cloud | В това ръководство ще научите за какво се занимава компютърните изчисления и как Microsoft Azure може да ви помогне да мигрирате и стартирате бизнеса си от облака.

Techopedia обяснява Big Data

Просто казано, големите данни отразяват променящия се свят, в който живеем. Колкото повече неща се променят, толкова повече промените се улавят и записват като данни. Вземете за пример времето. За синоптик количеството на данните, събрани по света за местните условия, е значително. Логично би имало смисъл, че местната среда диктува регионални ефекти, а регионалните ефекти диктуват глобални ефекти, но може и обратното. Така или иначе, тези метеорологични данни отразяват атрибутите на големи данни, където обработката в реално време е необходима за огромно количество данни и където големият брой входни данни могат да бъдат генерирани машинно, лични наблюдения или външни сили като слънчеви петна.


Обработката на информация като тази илюстрира защо големите данни са станали толкова важни:

  • Повечето данни, събрани сега, са неструктурирани и изискват различно съхранение и обработка, отколкото в традиционните релационни бази данни.
  • Наличната изчислителна мощност е ракетно-небесна, което означава, че има повече възможности за обработка на големи данни.
  • Интернет има демократизирани данни, като постоянно увеличава наличните данни, като същевременно произвежда все повече и повече необработени данни.

Данните в суровия му вид нямат стойност. Данните трябва да бъдат обработвани, за да бъдат ценни. Тук обаче се крие присъщият проблем на големите данни. Дали обработката на данни от нативния обект формат е полезна информация, струваща ли е огромните капиталови разходи за това? Или има просто твърде много данни с неизвестни стойности, за да се оправдае играта за обработката им с инструменти за големи данни? Повечето от нас биха се съгласили, че ако можем да прогнозираме времето ще има стойност, въпросът е дали тази стойност може да надвиши разходите за смачкване на всички данни в реално време в метеорологичен отчет, на който може да се разчита.