Video: The Great Gildersleeve: Disappearing Christmas Gifts / Economy This Christmas / Family Christmas 2024
Analizele statistice sunt departe de a fi un copil nou pe bloc, și este cu siguranță o veste veche că depinde de procesarea unor cantități mari de date pentru a obține o perspectivă nouă. Cu toate acestea, cantitatea de date procesate în mod tradițional de aceste sisteme se situează între 10 și 100 (sau sute de) gigaocteți - nu pe terabyte sau pe câmpurile de petabyte văzute astăzi, cu alte cuvinte.
Și adesea a fost nevoie de o mașină scumpa simetrică multi-procesantă (SMP) scumpă cu cât mai multă memorie posibilă pentru a ține datele analizate. Acest lucru se datorează faptului că mulți dintre algoritmii utilizați de abordările analitice au fost destul de "computați intensivi" și au fost proiectați să funcționeze în memorie - deoarece necesită multiple și, adesea frecvente, trece prin date.
În timp ce eșantionarea este o idee bună în teorie, în practică aceasta este adesea o tactică nesigură. Găsirea unei eșantionări semnificative din punct de vedere statistic poate fi o provocare pentru seturile de date rare și / sau excluse, care sunt destul de frecvente. Acest lucru duce la o probă slabă, care poate determina valori abstracte și date anormale și poate, la rândul său, să influențeze rezultatele analizei.