Big Data es un término que se ha utilizado para describir la tecnología y la práctica de trabajar con datos, que no solo son grandes en volumen, sino también rápidos y vienen en muchas formas diferentes.
Así que aquí presentamos algunas
de las tendencias que influirán en el análisis de los datos, para este año y en
el futuro cercano.
1. La IA impulsa conocimientos más profundos y una automatización cada
vez más sofisticada
La inteligencia artificial (IA)
ha cambiado las reglas del juego para la analítica. Con la enorme cantidad de
datos estructurados y no estructurados generados por las empresas y sus
clientes, incluso las formas manuales automatizadas de análisis solo pueden
arañar la superficie de lo que se puede encontrar.
La forma más sencilla de pensar
en la IA, tal como se usa hoy en día, son las máquinas (computadoras y
software) que son capaces de aprender por sí mismas. Para un ejemplo simple, ¿Cuál
de nuestros clientes es el más valioso para nosotros?
Si solo tenemos a nuestra
disposición la informática tradicional que no es de aprendizaje, podríamos
intentarlo creando una base de datos que nos muestre qué clientes gastan más dinero.
Pero, ¿Qué pasa si aparece un nuevo cliente que gasta $ 100 en su primera
transacción con nosotros? ¿Son más valiosos que un cliente que ha gastado $ 10
al mes durante el año pasado? Entender que necesitamos muchos más datos, como
el valor de vida del cliente promedio, y quizás datos personales sobre el
cliente mismo, como su edad, hábitos de gasto o nivel de ingresos, ¡también
sería útil!
La IA es útil aquí porque puede
intentar interpretar todos los datos juntos y generar predicciones sobre cuál
puede ser el valor de vida potencial de un cliente en función de todo lo que
sabemos. Un elemento importante de esto es que no necesariamente ofrece
respuestas "correctas" o "incorrectas"; proporciona un
rango de probabilidades y luego refina sus resultados dependiendo de qué tan
precisas sean esas predicciones.
2. Nuevas y enriquecedoras formas de explorar e interpretar datos
La visualización de datos es la
"última milla" del proceso de análisis antes de tomar medidas en
función de nuestros hallazgos. Tradicionalmente, la comunicación entre máquinas
y humanos se lleva a cabo mediante visualización, tomando la forma de gráficos y
cuadros de mando que resaltan los hallazgos clave y nos ayudan a determinar qué
sugieren los datos que se debe hacer.
El problema aquí ha sido que no
todas las personas son buenas para detectar una información potencialmente
valiosa escondida en una pila de estadísticas. A medida que se vuelve, cada vez
más importante que todos los miembros de una organización estén capacitados
para actuar sobre la base de información basada en datos, las nuevas formas de
comunicar estos hallazgos evolucionan constantemente.
3. Nube híbrida y el borde
La computación en la nube es otra
tendencia tecnológica que ha tenido un impacto masivo en la forma en que se
llevan a cabo los análisis de Big Data. La capacidad de acceder a grandes
almacenes de datos y actuar sobre la información en tiempo real, sin necesidad
de una costosa infraestructura local, ha impulsado el auge de las aplicaciones
y las nuevas empresas que ofrecen servicios basados en datos a pedido. Pero
depender completamente de los proveedores de nube pública, no es el mejor
modelo para todas las empresas, y cuando confía todas sus operaciones de datos
a terceros, es inevitable que surjan preocupaciones en torno a la seguridad y
la gobernanza.
Muchas empresas ahora se
encuentran mirando hacia sistemas de nube híbrida, donde parte de la
información se almacena en servidores de Amazon Web Service, Microsoft Azure o
Google Cloud, mientras que otros, quizás más datos personales o confidenciales,
permanecen dentro del jardín amurallado patentado. Los proveedores de nube
están cada vez más a bordo de esta tendencia, ofreciendo soluciones "en la
nube en las instalaciones" que potencialmente brindan todas las
características enriquecidas y la solidez de la nube pública, pero permitiendo
a los propietarios de datos la custodia total de sus datos.
4. El auge de DataOps
DataOps es una metodología y
práctica que se basa en el marco de DevOps que a menudo se implementa en el
desarrollo de software. Mientras que DevOps gestiona los procesos tecnológicos
en curso en torno a la prestación de servicios, DataOps se preocupa por el
flujo de datos de un extremo a otro a través de una organización. En particular,
esto significa eliminar los obstáculos que limitan la utilidad o accesibilidad
de los datos y el despliegue de herramientas de datos "como servicio"
de terceros.
También veremos el crecimiento de
la popularidad de los proveedores de "DataOps-as-a-service", que
ofrecen una gestión integral de los procesos de datos y las canalizaciones
disponibles y de pago por uso. Esto continuará reduciendo las barreras de
entrada para organizaciones pequeñas y nuevas, con grandes ideas para nuevos
servicios basados en datos pero sin acceso a la infraestructura necesaria
para hacerlos realidad.
Fuente: Bernard Marr. Futurista,
influyente y líder intelectual de renombre mundial en el campo de los negocios
y la tecnología.