David Turek encargado del desarrollo de supercomputadoras de IBM, calcula que, desde el comienzo de la historia humana hasta el año 2003, hemos generado 5 exabytes de información, es decir, cinco mil millones de gigabytes de datos diversos. Y no dejamos de aumentar exponencialmente esa cifra cada año, cada mes, cada semana cada día, cada minuto.
Cada vez que nuestro móvil envía nuestra localización GPS, cada vez que compramos on line, cada vez que cliqueamos el botón de me gusta en Facebook… estamos poniendo un mensaje digital en una botella. Y los océanos virtuales están ahora cubiertos de ellas. Ya casi no se ve el agua. Es todo cristal. Añadamos los mensajes de texto, los registros de clientes, las transacciones en cajeros automáticos, las imágenes de cámaras de seguridad, etc., etc., etc.… Es lo que en el argot se conoce como Big Data, aunque es un nombre que no hace justicia al tamaño del monstruo que estamos generando.
En definitiva: sabemos que hoy por hoy hay mucha más información en el mundo que antes, aunque no sepamos muy bien qué hacer con ella, precisamente porque es más de la que podemos asimilar. Un claro ejemplo de creación de una tecnología que supera ampliamente nuestra capacidad para usarla.
De hecho,  estamos apenas empezando a entrenar nuestra habilidad para capturar información  de esa montaña mágica y ya es un tópico entre los expertos afirmar que el futuro pertenecerá a las empresas y gobiernos que puedan extraer sentido de todos los datos que somos capaces de generar.
Las empresas están intentando perfeccionar la captura y análisis de cada huella digital que van dejando sus clientes en la red: lo que miran, lo que pensaban comprar, lo que compraron de hecho, lo que twitearonsobre ello o lo que comentaron en cualquier red social: oro molido.
No digamos los partidos políticos a los que les encantaría tener un buen sistema de recopilación y análisis de los rastros digitales de sus posibles votantes para acertar en el enfoque de sus mensajes.
Esta fiebre por interpretar los restos digitales que dejamos, hace que los servidores y buscadores también estén tras herramientas que vender: Google, por ejemplo,  anunció hace pocas semanas que comenzaban la comercialización de un producto llamado BigQuery, un software capaz de escanear terabytes de información en segundos.
Pero incluso el acceso a las mejores herramientas para descifrar los datos no es garantía de eficacia. Hacen falta personas capaces de evaluarlos. Es más, para algunos, es esto lo importante: no es la cantidad de los datos, sino la calidad de su análisis lo que hace valiosa la información.
Y, hoy por hoy, hasta que exista esa gente capaz, la cantidad de datos no es sino basura que entorpece la extracción de verdadera información.
 (Extraído de Smithsonianmag.com)