El análisis de los datos estadísticos se basa en un proceso inductivo; es decir, a partir de un número pequeño de datos, también conocido como muestra, se intenta sacar una conclusión general extrapolando a la población la información obtenida.
Algunos de los más relevantes son:
Para comprender mejor el concepto, vamos a explicarlo con un ejemplo muy sencillo. De cara a las elecciones, diferentes centros de información realizan sondeos sobre la intención de voto de la población.
De ésta manera, se llevan a cabo una serie de encuestas a distintos grupos de población con el objetivo de que la muestra no tenga ninguna desviación y sea 100% aleatoria.
Así, cuando los encuestadores recogen la información, se establece que un determinado porcentaje de las personas encuestadas votaría a uno u otro candidato.
Con el análisis de datos estadísticos se establece que si el 10% de una muestra de 500.000 votaría al candidato X, se concluye que ese mismo porcentaje de la población lo haría.
Actualmente hay numerosas empresas que se dedican al procesamiento de datos estadísticos; un servicio cada vez más extendido entre las compañías debido al gran poder que aporta el análisis de un conjunto de datos estadísticos de cara a tomar las decisiones más acertadas.
“La información es poder”
En los últimos años, el Big Data se ha desarrollado a pasos cada vez más…
Según datos publicados en noviembre del pasado año 2016, alrededor del 10% de despachos jurídicos…
El Big Data dejó hace unos años de ser un sueño para convertirse en una…
De manera progresiva, el Big Data va formando cada vez más parte de nuestra vida…
El Big Data, de manera paulatina, va apoderándose de distintos ámbitos de nuestro entorno. Una…
En los últimos años se ha hablado mucho sobre el Big Data. Teniendo en cuenta…