Historia del Big Data

Tal vez la primer pregunta que nos hagamos sea ¿Qué es el Big Data? y por qué últimamente la mayoría de la empresas han hablado tanto de él antes de conocer la historia del Big Data. La inmensa cantidad de información que producimos los usuarios de internet día con día, desde nuestro smartphone, tablet, laptop, etc; forma parte de estos grandes volúmenes. El análisis de esta gran carga de información ( estructurada y no estructurada) tomaría demasiado tiempo y sería muy costoso, con bases de datos convencionales.
A continuación les dejamos un extracto de la línea del tiempo desarrollada por Bernard Marr para Linkedin sobre la historia del Big Data.

Las primeras ideas de Big Data

  • 1999

      • El primer uso del término Big Data en un trabajo académico: “Visually Exploring Gigabyte Datasets in Realtime (ACM).
      • El primer uso del concepto “Internet of Things” (Internet de las Cosas) en una presentación de negocios de Kevin Ashton para Procter and Gamble.
    • 2008

        • Globalmente, 9,57 zetabytes (9.570.000.000.000 gigabytes) de información se procesa por las CPUs del mundo.
        • Se estima que 14,7 exabytes de información nueva se producidiría este año.
      • 2010

        Eric Schmidt, presidente ejecutivo de Google, dice en una conferencia que la cantidad de datos que ahora se están creando cada dos días, es mayor que la creada desde el comienzo de la civilización humana hasta el año 2003.

      • 2014

        El uso de Internet móvil supera a las computadoras de escritorio por primera vez.

          • 88% de los ejecutivos que respondieron a una encuesta internacional realizada  GE dice que el análisis de grandes volúmenes de datos es una prioridad.
        • 2001

          Las tres “V” definida por Doug Laney para Big Data: “Volumen, Velocity, Variety”  (Volumen, Velocidad, Variedad).

        • 2005

          La Web 2.0 aumenta el volumen de datos

        • 2007

          Emerge el uso actual del término “Big Data”.

        • 2009

          Una compañía promedio estadounidense con más de 1.000 empleados, almacena más de 200 terabytes de datos de acuerdo al informe sobre Big Data: “The Next Frontier for Innovation, Competition and Productivity”(La próxima frontera para la innovación, la competencia y la productividad) realizado por McKinsey Global Institute.

        • 2011

          El informe McKinsey señala que en 2018 los EE.UU. se enfrentará a un déficit de entre 140.000 y 190.000 científicos profesionales de datos, y advierte que cuestiones como la privacidad, la seguridad y la propiedad intelectual tendrán que ser resueltas antes de que se den cuenta de todo el valor de Big Data.

        La historia Big Data no es un fenómeno nuevo o aislado, sino forma parte de una larga evolución de la captura y el uso de datos. Al igual que otros acontecimientos claves en el almacenamiento de datos, procesamiento de datos e Internet, Big Data es sólo un paso más  que traerá cambios en la forma en que manejamos los negocios. Al mismo tiempo la historia del Big Data que sentará las bases sobre las que se construirán otras evoluciones.

        Novamedia y EMC conocen la importancia del Big Data para la creación de mejores estrategias comerciales que necesita tu empresa, ¡contáctanos!  

        Comentarios

        comentario