O termo Big Data está cada vez mais popular, embora ainda seja mal compreendido. Observo em muitas palestras que não existe consenso quanto ao que realmente venha a ser Big Data. E ainda existem muitas dúvidas de como tangibilizar o conceito, ou seja, como sair do conceitual e criar soluções de negócio que agreguem valor para as companhias. Eliminar estas dúvidas é essencial, além de ser o primeiro passo para as empresas se aventurarem em projetos Big Data.
Para colocarmos o termo em contexto, Big Data vem chamando atenção pela acelerada escala em que volumes cada vez maiores de dados são criados pela sociedade. Já falamos comumente em petabytes de dados gerados a cada dia e zetabytes começa a ser uma escala real, não mais imaginária e futurista. O que era futuro há uma década, terabytes, já temos hoje em nossas próprias casas.
As tecnologias que sustentam Big Data podem ser analisadas sob duas óticas: as envolvidas com Analytics, tendo Hadoop como a principal, e as tecnologias de infraestrutura, que armazenam e processam os petabytes de dados. Neste aspecto, destacam-se os bancos de dados NoSQL.
Por que estas tecnologias? Por que Big Data é a simples constatação prática que o imenso volume de dados gerados a cada dia excede a capacidade das tecnologias atuais de os tratarem adequadamente.
Começando pelo início. O que é Big Data?
Outro dia escrevi um post com uma fórmula simples para conceitualizar o Big Data. É igual a volume + variedade + velocidade. Mas costumo adicionar outros dois “V”s a essa equação: veracidade e valor. Vamos detalhar estes tópicos um pouco mais.
Volume está claro. Geramos petabytes de dados a cada dia. E estima-se que este volume dobre a cada 18 meses. Variedade também, pois estes dados vêm de sistemas estruturados (hoje minoria) e não estruturados (a imensa maioria), gerados por emails, mídias sociais (Facebook, Twitter, YouTube e outros), documentos eletrônicos, apresentações estilo Powerpoint, mensagens instantâneas, sensores, etiquetas RFID, câmeras de video, etc.
Velocidade por que muitas vezes precisamos agir praticamente em tempo real sobre este imenso volume de dados, como em um controle automático de tráfego nas ruas.
Veracidade por que precisamos ter certeza que os dados fazem sentido e são autênticos.
E valor por que é absolutamente necessário que a organização que implementa projetos de Big Data obtenha retorno destes investimentos.
Falamos que as tecnologias atuais de tratamento de dados não são mais adequadas. Por quê?
Vejamos o modelo relacional, proposto pelo pesquisador da IBM, Edgar F. Codd, em 1969. Quando foi proposto, a demanda era acessar dados estruturados, gerados pelos sistemas internos das corporações. Não foi desenhado para dados não estruturados (futurologia na época) e nem para volumes na casa dos petabytes de dados (inimaginável na época). Precisava-se sim de um modelo que categorizasse e normalizasse dados com facilidade. E o modelo relacional foi muito bem sucedido nisso, tanto que é o modelo de dados mais usado atualmente.
Para tratar dados na escala de volume, variedade e velocidade do Big Data precisamos de outros modelos. Surgem os softwares de banco de dados NoSQL, desenhados para tratar imensos volumes de dados estruturados e não estruturados.
Existem diversos modelos. Não faltam opções… Por outro lado, esta diversidade de alternativas demanda que os líderes dos projetos de Big Data escolham a mais adequada ou mesmo demandem mais de uma opção, de acordo com as necessidades especificas.
Depois da infraestrutura é necessário atenção aos componentes de Analytics, pois estes é que transformam os dados em algo de valor para o negócio.
Big Data Analytics não significa eliminar os tradicionais sistemas de BI existentes hoje. Pelo contrário. Eles devem coexistir. Recomendo enfaticamente a leitura do livro “Competing on Analytics: the new science of winning”, de Thomas H. Davenport, publicado pela Harvard Business Schoool Press.
Aliás, ao lado destas alternativas surgem outras opções, como o uso de appliances, que embarcam em um hardware adaptado todos os softwares necessários para criar projetos de Big Data. Os appliances queimam etapas nos projetos de Big Data.
Quanto ao aspecto velocidade, o conceito de stream processing permite tratamento em tempo real de dados. Concretamente, o InfoSphere Streams, da IBM, é um exemplo muito interessante. A ideia de stream computing é fantástica. Um novo paradigma. No modelo de data mining tradicional uma empresa filtra dados dos seus vários sistemas e, após criar um data warehouse, dispara “queries”.
Na prática, faz-se garimpagem em cima de dados estáticos, que não refletem o momento, mas sim o contexto de horas, dias ou mesmo semanas atrás. Com stream computing, esta garimpagem é efetuada em tempo real. Em vez de disparar queries em cima de uma base de dados estática, coloca-se uma corrente contínua de dados (streaming data) atravessando um conjunto de queries. Podemos pensar em inúmeras aplicações, sejam estas em finanças, saúde e mesmo manufatura.
Vamos ver este último exemplo: um projeto em desenvolvimento com uma empresa de fabricação de semicondutores pode monitorar, em tempo real, o processo de detecção e classificação de falhas. Com stream computing, as falhas nos chips sendo fabricados são detectados em minutos e não em horas ou mesmo semanas. Os wafers defeituosos podem ser reprocessados e, mais importante ainda, podem ser feitos ajustes nos próprios processos de fabricação, em produção.
Adicionalmente, podemos pensar que a computação em nuvem é também um impulsionador para o Big Data, pois pode-se usar nuvens públicas para suportar imensos volumes de dados. As características de elasticidade das nuvens permitem que acionemos servidores virtuais sob demanda, apenas no momento de tratar estes dados.
Enfim, Big Data está batendo nas nossas portas. Seu potencial ainda não está sendo plenamente reconhecido, mas já vemos sinais claros desta importância para resolver problemas diversos como questões socioeconômicas e mesmo prevenção de epidemias.
Quanto às empresas, Big Data abre um novo e ainda inexplorado território. Carecemos de conhecimentos, experiências e mesmo de expertise profissional. Começa-se a se falar em novas funções como “data scientists”, mas é inevitável que os CIOs tenham que colocar Big Data na tela dos seus radares.
As oportunidades que os cinco “V”s trazem não podem nem devem ser desperdiçadas.
*Cezar Taurion é CEO da Litteris Consulting, autor de seis livros sobre Open Source, Inovação, Cloud Computing e Big Data
Site: Computerworld
Data: 17/06/2016
Hora: 17h01
Seção: Big Data
Autor: Cezar Taurion
Foto: ——
Link: http://computerworld.com.br/volume-variedade-velocidade-veracidade-e-valor-os-cinco-vs-do-big-data