Arquitecto de Soluciones
El análisis de datos dispares y de diferentes fuentes requiere algoritmos de procesamiento distintos.
Vivimos en un mundo en el que la información se genera de forma cada vez más variada y veloz. Además que la necesidad de analizarla ha aumentado. El conjunto de estos dos factores trae nuevos retos operativos que no se habían presentado antes. Estos retos se presentan desde la captura de la información, el análisis y la entrega de resultados de forma fiable.
El primer reto importante es la captura y el tiempo que esa información sigue siendo útil. La ciencia de datos en el modo de Business Intelligence hasta el momento trataba con enormes cantidades de datos históricos y estructurados, y se obtenía una gran cantidad de información, en su mayoría estadística, que permitía tomar decisiones de negocio a largo plazo. Sin embargo, ya no toda la información que recibimos es estructurada como la encontramos en bases de datos tradicionales.
Actualmente recibimos información de fuentes como utilización de sitios, metadatos de multimedia, hábitos de consumo de información, además de los medios tradicionales. Toda esta información junta nos proporciona hallazgos relevantes al negocio en tiempo real.
Por otro lado, el análisis de datos dispares y de diferentes fuentes requiere algoritmos de procesamiento diferentes a los que estamos acostumbrados. Además de queries tradicionales a bases de datos, necesitamos algoritmos que nos permitan distinguir entre la información útil y la información que nos da falsos positivos. Esto es posible a través de elementos de Machine Learning, adaptados a las necesidades de cada organización.
Dado que esta información es volátil, y entra de formas múltiples y a velocidades variables, tener una infraestructura que soporte requiere cierto nivel de escala y/o flexibilidad. Contar con este tipo de infraestructura de forma física significa subutilizarla durante mucho tiempo o correr el riesgo de perder información. El despliegue de esta infraestructura es costoso y las actualizaciones son complejas.
Big Data tiene un ambiente natural en la nube
Para optimizar la inversión en Big Data la nube es de gran beneficio, por ejemplo, la información se puede encontrar en varias fuentes fácilmente accesibles en Data Lakes. Estos espacios de almacenamiento son completamente flexibles, reduciendo a nada el riesgo de perder la información.
CONOCE MÁS SOBRE LA NUBE EN: Data Lakes: un lago de conocimientos
Por otro lado, el procesamiento se puede manejar en servidores bajo demanda que se pueden levantar en minutos o utilizar servicios que no requieren de servidores, eliminando por completo la necesidad de mantenimiento de software, hardware; delegando todo ese trabajo a un tercero que por escala logra tener mayores niveles de disponibilidad, medidas de seguridad difíciles de lograr en un ambiente propio y flexibilidad para crecer nuestros recursos bajo demanda.
Amparo Romero