Por Cesar Ripari, Líder do Comitê de BI e Analytics da ABES*
Um estudo recente da IDC mostra que devemos chegar à casa de 180Zb (zettabytes) de dados gerados pelo mundo até 2025. Só para termos uma ideia, um zettabyte é igual a um trilhão de gigabytes. Isso mostra que o mundo tem gerado uma quantidade massiva de dados e que crescem exponencialmente a cada ano. Por outro lado, surge a reflexão: como conseguir encontrar o dado que vai responder aos questionamentos diários vindos das áreas de negócio?
Por conta desse “tsunami” de informações, apenas uma pequena parcela dos dados relevantes para um negócio são analisados. Se considerarmos a frase do matemático inglês Clive Humby – “Os dados como o novo petróleo” –, podemos afirmar que estamos tirando uma quantidade enorme de petróleo do chão, só que boa parte vai direto para o ralo. E se existisse uma forma de evitar toda essa perda e, de quebra, termos a possibilidade de contar com uma espécie de via rápida que nos permita organizar os dados que chegam e entregá-los prontos para análise e tomada de decisão?
O conceito de “Inteligência Ativa” é baseado nessa necessidade, ou seja, a promoção de um estado de inteligência contínua, no qual tecnologia e processos nos permitem tomar ações imediatas a partir de dados atualizados e em tempo real. Podemos imaginar esse processo dividido em quatro etapas (figura 1), que se inicia onde os dados em seu estado bruto são originados, independente de formatos e fontes.