Projeções apontam que, em 2020, produziremos o equivalente de conteúdo que toda a humanidade criou em 18 mil anos a cada 18 minutos. A grande transformação, no entanto, não está no volume de dados, mas no valor que o departamento de TI pode extrair dele

Da forma que caminha, a geração de dados remete muito à história indiana “Lenda de Ambalappuzha Paal Paayasam”, onde, num jogo de xadrez com um rei de uma determinada região, o Lord Krishna, disfarçado de um sábio qualquer, acertou o ganho de punhados de arroz como prêmio. Pelas regras, a distribuição dos grãos ao longo do jogo seguia a seguinte dinâmica: um para o primeiro movimento da peça, dois para o segundo, quatro no terceiro e assim por diante, sempre dobrando o número em relação ao anterior. Cada quadrado andado representava o dobro de grãos do movimento anterior. No vigésimo quadrado percorrido, o número já representava um milhão de grãos. No quadragésimo, eram três milhões. Tudo isso graças à projeção geométrica. No caso das informações digitais, o fluxo tem seguido uma trilha parecida, trazendo muitos desafios para as corporações.

Assine a Newsletter do IT Web

Siga o IT Web no Twitter

Curta, no Facebook, a Fan Page do IT Web

Vito Di Bari, professor de design e gestão da inovação na Universidade Bocconi e diretor científico do LabNext, o “tanque de conhecimento de Milão”, faz projeções monstruosas em torno da geração de dados. O especialista, que esteve no País em novembro durante o TEDxFiap, lembra que, até 2001, todo o conhecimento da humanidade representava cinco exabytes em capacidade de armazenamento. “Os dados de toda a história da humanidade, com 18 mil anos de civilização”, ponderou. Para fazer uma correlação do processo,o especialista comparou o fluxo de inovação aos movimentos que uma raposa faz ao se preparar para dar um bote, em um conceito que forma o acrônimo SIP: Sighting (sentir, verificar uma possibilidade), Immobility (imobilidade, momento no qual há uma pausa natural no processo, até a espera do momento certeiro) e Pounce (o bote, no qual a presa é capturada, mudando totalmente os processos).

Até 2022, o movimento de internet das coisas e o consequente Big Data atingirão a letra P desse caminho, o que é classificado como Big Bang dos dados. Pelo menos é esta a visão do italiano Di Bari, terceiro futurista mais respeitado do mundo. Para o especialista, o mundo, agora, está no “I” do processo, no qual objetos passam a ganhar sensores e deixar a vida mais automatizada. O cientista prevê que, em 2020, será produzida a mesma quantidade de informações que toda a humanidade gerou até 2011 a cada 18 minutos. Ou seja: cinco exabytes de dados serão jogados na nuvem a cada 1080 segundos, o que dá um estoque de 25 mil exabytes. “Este será o Big Bang do Big Data”, comentou.

Diante deste cenário, qual a possibilidade de uma explosão de dados criar um novo cenário de informação? Ou mesmo deixar o data warehouse da companhia tão sobrecarregado que seja impossível armazenar e correlacionar tais dados? Para Anderson Figueiredo, gerente de pesquisa da IDC Brasil, não há motivo para desespero. “Em primeiro lugar, 2020 está muito longe. Muitas coisas que a IDC tinha previsto há uns dois anos para 2020 já aconteceram”, iniciou. Além disso, ele não vê com fatalidade essa situação. Primeiramente, é preciso entender que estamos falando em um mundo onde o recém-atingido nível de armazenamento de dados zettabytte será suplantado pelo yottabytte, uma combinação numérica com 24 zeros em sua composição.

Parece existir uma ânsia em torno do termo Big Data, e o medo que as companhias têm em perder dados relevantes cria um cenário onde armazenar, mesmo que sem critério, parece ser a melhor alternativa. “O volume de dados é o que menos vale. O grande problema é como eu vou tratar isso”, avaliou Figueiredo, indicando que ferramentas de analytics são, então, a verdadeira vedete em um contexto Big Data.

“Estamos aprendendo como acessar o valor dos dados agora. Tradicionalmente nós guardamos tudo, mas isso está se tornando impossível”, afirmou, Joel Makower, fundador do GreenBiz. O executivo esteve no Brasil em outubro de 2012 para mediar o Verge, rodada de discussão mundial sobre evolução da TI, telecom e modelos de negócios em uma sociedade mais conectada. “Vamos evoluir em termos de o que precisará ser guardado. Da mesma forma que estamos aprendendo a entender qual tipo de Big Data vamos ouvir”, continuou.

Quando se pensa em Big Data, o que sempre vem à mente é a produção de conteúdo que a internet 3.0, mais colaborativa que suas gerações anteriores, permite. Mas não são somente as redes sociais que abrem espaço para esse conceito: o comportamento do consumidor na internet, como um todo, passa a ser avaliado e mensurado. Peguemos o exemplo do internet banking, inexistente alguns anos atrás: a atitude do usuário no pagamento de contas, solicitação de crédito e investimentos pode ser avaliada pelo banco, tanto com foco em ampliar segurança quanto com o objetivo de apresentar ofertas condizentes com o perfil da pessoa.

A forma como o internauta compra no e-commerce é outra. As menções a marcas e empresas nas redes sociais também dão um claro indicativo. Assim, o business analytics abre uma sorte de oportunidades tão intensa que especialistas consideram, no futuro, o fim do spam: em vez de e-mails chatos que, por exemplo, indicam a uma pessoa a aquisição de uma máquina de arar terra, as empresas saberão exatamente o que oferecer de relevante para aquele indivíduo. É como se fosse possível ver um mapa do consumo e comportamento de cada um.

Mas o conceito tende a ficar ainda mais complexo. Quando se fala em cidades e prédios inteligentes, tudo passa a ter um endereço IP e a rastrear e emitir informações que podem, ou não, ser utilizadas para uma melhor interação da sociedade. O problema é quando o “ou não” toma evidência no contexto da frase anterior, e um sensor emite dados cujo resultado principal é a sobrecarga das redes.

“Pense no futuro, um veículo elétrico em uma estrada inteligente. Serão cinco fluxos de dados diferentes: do veículo para a central, do veículo para a estrada, do veículo para a nuvem, do veículo para o motorista e do veículo para outros veículos, a fim de evitar colisão. Essa informação precisa ser usada em milésimos de segundos, se não perde valor”, exemplificou Makower. Como é impossível para o ser humano lidar com tanto conteúdo, o papel da tecnologia machine to machine (M2M) é essencial. “Se pensarmos em um prédio inteligente, qualquer dispositivo ou tomada tem um endereço IP. Alguns deles podem alterar as informações uma vez por semana, outros ficam ali parados por vários dias. Mas algumas coisas mudam a cada segundo, como é o caso dos servidores. Se tratar todas as informações da mesma forma, não tem valor”, ponderou.

O valor

Esse aprendizado do que deve ser levado em consideração ou de como usar as informações de forma mais inteligente, a ponto de influenciar os rumos de uma empresa, é algo que está em curso. Você pararia o carro, por exemplo, para buscar uma nota de R$ 2 que tivesse voado pela janela? Provavelmente, não. A situação, possivelmente, mudaria caso fosse uma cédula de R$ 50. Fazendo alusão ao valor que cada pedaço de papel representa, o evangelista da Symantec, Dale Zabriskie, conhecido de Dr. Z, explicou, em evento da companhia na cidade de São Paulo, que a mesma análise deve ser feita dentro da empresa, quando for escolher níveis de proteção para seus dados. “As empresas caminham para o movimento de inteligência da informação. Isso se dá quando começam a entender o valor que cada informação tem”, justificou. Para contextualizar, ele citou o caso de um cliente CIO que lhe disse: “somos ricos com dados, mas pobres com informação”. E é este tipo de diferenciação que é preciso haver para garantir um ambiente eficiente e seguro.

Exatamente por isso que o SAS Institute considera que, por motivos físicos ou econômicos, chegará o momento em que armazenar todos os dados não será a opção mais inteligente. “O foco da medição da relevância da informação tem que mudar. Não pode ser o dado que eu tenho, mas o dado que eu preciso. Existem modelos estatísticos em que estudo 300 variáveis. Depois de passar pelo enterprise mining, são 23 ou 25 que realmente explicam o fenômeno, as demais são correlatas. Eu derrubo aquela quantidade enorme a partir de uma análise. As áreas de TI têm de deixar de se comportar como zelador do prédio, que recebe as demandas, e tem de cuidar delas, e  olhar para a estratégia da empresa”, comparou Marcos Pichatelli, gerente de produtos de High-Performance Analytics (HPA) da empresa

Na visão de Pichatelli, as companhias dos setores de finanças e telecom, que hoje já lidam com alto volume de dados, serão as primeiras a trabalhar com um montante ainda maior por conta dessa facilidade de trânsito das informações. De qualquer maneira, todos serão afetados de uma forma ou de outra com o passar do tempo: com o conceito de internet das coisas, uma manufatura de máquinas pesadas, por exemplo, pode mensurar em tempo real a situação de todo o seu parque fabril e receber informações sobre problemas antes mesmo de os ferramentais entrarem em colapso. E é nesta situação que a ideia de mídias sociais como fonte exclusiva da explosão de dados cai por terra.“Esse tipo de informação está ligado à internet como um todo, e não exclusivamente às redes sociais. A internet é causadora do Big Data, muito antes de ficarmos tão ligados em plataformas como o Facebook”, advertiu.

É neste ponto que a computação em memória, que deixa os dados mais importantes nas margens do servidor, permitindo o acesso de forma tão rápida quanto o pensamento, e a evolução de appliances fincam seus pés nas ofertas de analytics, segundo Figueiredo, da IDC.

Transformação

Mas retornado ao início do texto e à lenda indiana, ao se deparar com a dívida que não poderia pagar, o rei viu o sábio transfigurado em sua verdadeira imagem, a do próprio Krishna. O deus disse que o devedor não precisaria pagar tudo de uma vez, porque isso era simplesmente impossível, e que o débito seria quitado ao longo do tempo. O rei deveria servir paal-payasam, um prato à base de arroz, para os peregrinos do templo todos os dias, até que o débito fosse pago. Na história, o arroz  era o dado inicial e que, ao receber uma dose de evolução, se tornava um prato de comida. Ou seja, a transformação do objeto inicial, com foco em valor. “Hoje, o mais importante para a empresa é o dado. E amanhã será o dado analisado”, conclui Figueiredo.

Notícias PRNewswire