Companies using Hadoop for analytics

Companies using Hadoop for analytics bring meaning to satellite data
There is a tremendous amount of information stored in satellite imaging data, but discoverability is a persistent problem. The way in which images are processed and indexed can make it difficult for users to search through databases for meaningful information. But companies using Hadoop for analytics are helping to make this data more relevant.
Skybox Imaging is one company working to apply analytics to satellite images to leverage the data they contain. The company builds and operates high-resolution imaging satellites and makes the images, as well as data, available to customers. The image data can tell users the speed of a container ship as it moves through a waterway, the completion percentage of a construction project or how many empty spaces are in a parking lot.
To accomplish this is no small feat. Skybox aerospace engineer and vice president of product development Julian Mann said the data pulled out of their satellites wouldn't be recognizable to the average user on its own.
"If you took a single frame that came off the camera and tried to open it up in any imaging software that you might have on your computer, you wouldn't be able to see anything," Mann said. "It's a very raw sensory output."
Things get interesting when the company starts to organize and make sense of the data. Skybox partnered with Cloudera to implement their distribution of Hadoop. The software framework is necessary to handle the data-intensive nature of satellite imaging, Mann said. Skybox customers can then embed their own algorithms in the company's platform and use the analytics engine to crunch the data for their own purposes. Agriculture clients can monitor crop yields. Shipping and supply chain companies can monitor vehicles. Oil and gas companies can evaluate land areas. All of this is based on looking for changes in imaging data by using Hadoop for analytics.
The availability of satellite images isn't necessarily new, but the ability to study changes is, and the implementation of Hadoop into image databases enables it. Mann said this is what allows users to assemble data, normalize it, index it and make meaningful connections. The satellite imaging industry may be generating up to 15 petabytes of data per year within the next four years, he said. It takes a strong analytics engine like Hadoop to organize and make sense out of all this data.
This explosion of data is putting pressure on imaging and location intelligence companies to find ways to manage it all, but there are ways around putting too many internal resources toward database management operations. Mann said this is why Skybox chose to partner with Cloudera. The arrangement allowed Skybox to focus on the things it's good at, like analyzing geospatial sensing data, while letting Cloudera handle the things it have more expertise at, such as implementing Hadoop, he said.
While it may be good for companies engaging in heavy analytics to have staff members who understand databases, Mann said it is not necessary to devote resources to nuts-and-bolts implementation steps when there are vendors out there who are willing to do these tasks. Contracting out these pieces allows businesses to leverage analytics to make meaningful business improvements rather than focusing on becoming experts at implementing Hadoop, Mann said.

techtarget.com

Escrever um comentário (0 Comentários)

O Big Data trilha o caminho da inteligência

Indústria movimenta-se para ajudar empresas a trilhar o caminho da inteligência sobre grandes volumes de dados.

Todos os dias, cerca de 15 petabytes de dados estruturados e não estruturados são gerados, segundo projeções da IBM. Essa montanha de informações inclui mensagens trocadas a partir de dispositivos móveis, e-mails, fotos, vídeos, compras pela web, planilhas, textos, vídeos e outros. Para colocar em perspectiva, com apenas um petabyte, segundo cálculos de mercado, é possível armazenar mais de 114 mil horas de vídeo em HD, o mesmo que mais de 13 anos de programação contínua. Esse tsunami é uma grande oportunidade para o mundo corporativo, e representa desafio sem precedentes para a indústria da Tecnologia da Informação (TI), que aposta na oferta de ferramentas que ajudem as empresas a filtrar e modelar informações úteis para os negócios. 

Companhias estão diante de uma mina de ouro e começam agora a entender como forjar inteligência de negócios a partir dessa matéria-prima. É a era do Big Data que, segundo especialistas, bate à porta e deve ganhar impulso nos próximos anos, turbinada pelo crescimento do poder computacional e do surgimento de novas fontes geradoras de informação, como as redes sociais e a comunicação máquina a máquina (M2M). 

Big Data, no entanto, não se refere ao mero armazenamento de grandes volumes de dados. Volume + variedade + velocidade de geração de dados são os elementos que compõe o Big Data. O valor do conceito está na possibilidade de localizar, peneirar e analisar informações úteis a partir de diferentes fontes e em tempo real. Diferentemente do Business Intelligence (BI), que analisa o passado, a tecnologia prevê tendências futuras, balizando e agilizando as tomadas de decisão imediatas.

A indústria de TI, atenta ao potencial da solução para os negócios, está evoluindo suas ofertas para oferecer ao mercado tecnologias avançadas de Big Data. Ela se apoia em ferramentas analíticas que ajudem as companhias a reter clientes e a criar produtos em linha com seus desejos e necessidades. A proposta ambiciosa do Big Data é ajudar empresas a decidir com base em evidências e analisadas continuamente.

Dados espalhados pela organização, gerados pelos consumidores em mídias sociais ou por dispositivos móveis precisam ser colhidos, garimpados e moldados de acordo com as necessidades de negócios da empresa. 

A IBM investiu, nos últimos cinco anos, mais de 14 bilhões de dólares na compra de 24 companhias para reforçar as capacidades analíticas de suas tecnologias. Com a estratégia, batizada de Business Analytics, que inclui Big Data, a Big Blue pretende faturar 16 bilhões de dólares até 2015. “Temos um portfólio abrangente de tecnologias, que vai desde a coleta de dados de diversas fontes, passando por sistemas que analisam essa montanha de dados até o tratamento das informações em tempo real”, explica Cezar Taurion, gerente de Novas Tecnologias Aplicadas da IBM Brasil.

Ele diz que a fabricante também conta com serviços de consultoria e parcerias com universidades para formar talentos em Big Data, os chamamos cientistas de dados (leia mais na página 22). Por aqui, a capacitação para profissionais da área está chegando, mas nos Estados Unidos a empresa tem mais de 100 mil alunos inscritos na Big Data University, diz Taurion. 

“Estamos no início dessa era”, afirma. A desorganização ou até mesmo a falha em coletar as informações para analisar são barreiras que devem ser superadas. Taurion diz que a IBM está apostando no conceito de Smarter Storage, que reúne diversas tecnologias, para eliminar esses problemas. A abordagem permite que as companhias economizem até 47% do tempo usado na gestão do sistema, além de reduzir a complexidade em até 30%. 

Alguns casos experimentais em Big Data já podem ser observados, informa. Em Cingapura, a IBM implementou um sistema de previsão de congestionamento com sensores que se comunicam com dados históricos e relatos de obras em execução na cidade. Após análise dessa massa, é possível descobrir gargalos no trânsito. “No Rio de Janeiro, o Centro de Operações é capaz de descobrir, com 48 horas de antecedência, pontos potenciais de deslizamento de terra a partir da combinação de milhares de dados do sistema e topografia local”, exemplifica. Aí é que está o grande poder de Big Data, lembra, capturar dados, analisar e tomar decisões.

No mundo atual, diz Patricia Florissi, vice-presidente e diretora de Tecnologia das Américas, Europa, Oriente Médio e África (EMEA) da EMC, repleto de dados, não é mais viável verificar informações do passado e obter insights sobre o futuro manualmente. “É impossível realizar essa tarefa em banco de dados tradicional. Uma empresa não quer mais saber daqui a um mês o que aconteceu há 40 dias”, aponta.

Para ela, que mora nos Estados Unidos há mais de 20 anos, o Brasil apresenta condições econômicas para liderar iniciativas de Big Data em todo mundo. “Vejo o varejo e os bancos como os grandes usuários desse tipo de tecnologia”, destaca. “2013 vai marcar o ano da exploração de Big Data”, acredita. A ideia da micro segmentação de clientes, e não mais o tratamento por grupos, vai atrair a atenção das companhias.

Patricia afirma que há mais de três anos a EMC ingressou no universo de Big Data. “Identificamos que o volume de dados crescia a uma velocidade impressionante e criamos uma estratégia na área”, lembra. A jornada até Big Data incluiu a compra da VMware e Greenplum. Mais recentemente, em dezembro de 2012, juntou-se à VMware para criar a Pivotal Initiative, totalmente voltada para iniciativas de grandes quantidades de dados. “Essa nova divisão, que será uma empresa independente ainda neste ano, terá 1,5 mil pessoas totalmente focadas no tema.” 

Segundo ela, a Pivotal tem como meta incentivar as empresas a adotar soluções analíticas. Está nos planos a criação de um ambiente de desenvolvimento, oferta de consultoria em analytics e soluções de infraestrutura. A companhia também participa da comunidade Hadoop, plataforma para análise de dados de código aberto, desenvolvida pela Apache, e quer participar da OpenStack. “Buscamos ser referência global em Big Data”, aponta. 

No Brasil, a EMC também está plantando suas sementes. A empresa conta com um laboratório para Big Data no Centro de Pesquisa e Desenvolvimento (P&D) no Rio de Janeiro e está capacitando profissionais para atuar na área, por meio da Escola de Verão de Big Data.

O ferramental de Big Data da EMC inclui a plataforma Greenplum, que proporciona maior entendimento e geração de valor dos dados estruturados e não estruturados e o Isilon, família de storage para dados não estruturados, que permite o crescimento da infraestrutura de forma linear tanto para desempenho quanto para capacidade de armazenamento.

Separando o joio do trigo

Para o SAS, Big Data também leva em consideração variabilidade e complexidade. “Por variabilidade entende-se o fato de que a disponibilidade de informações está sujeita a ‘picos periódicos’ e a eventos. Em complexidade, há o desafio de gerenciar os dados, ou seja, integrar fontes de dados, desduplicar informações, atualizar dados e muito mais”, detalha Daniel Hoe, gerente de desenvolvimento de novos negócios do SAS Brasil.

Segundo ele, a estratégia do SAS para Big Data é levar ao mercado soluções de High-Performance Analytics que ajudam as empresas a lidar com quatro questões: gerenciamento da informação, visualização, analytics e opções diversas de implementação de solução, que incluem nuvem e appliances (hardware e software combinados para tarefas específicas).

Hoe acredita que em 2012 o termo Big Data se popularizou e ganhou relevância. “Isso é resultado de um fenômeno que teve impulso na última década: a queda dos preços de armazenamento de dados e a crescente informatização dos processos de negócios”, diz. Para 2013, a expectativa é que as empresas percebam o benefício do uso concreto dessa estratégia e aumentem a adoção de tecnologias de análise, gerenciamento e armazenamento.  

Seguradoras, operadoras de telecomunicações e bancos são as indústrias que mais vão apostar na tecnologia, segundo Hoe. Para conquistar o mercado, prossegue, o SAS fechou parceria com os principais fornecedores de bancos de dados de alta performance do mercado, como EMC Greenplum e Teradata para oferecer appliances de alta performance capazes de realizar tarefas de modelagem preditiva, estatística e data mining em memória (divisão de volumes menores de informações entre os processadores disponíveis, reduzindo para um minuto e meio o tempo de análise tradicional em disco que consumiria quatro horas).

Diógenes Santo, arquiteto de soluções da Teradata, destaca que as soluções da empresa são baseadas em SQL MapReduce, um framework desenvolvido pela Aster Data, empresa adquirida pela Teradata em 2011, que possibilita aumentar a capacidade de processamento para estratégias de Big Data, fornecendo insights a partir de fontes multi estruturadas de dados, que auxiliam a identificar tendências e oportunidades de mercado. 

Mas o que há de revolucionário nisso? “A tecnologia possibilita acesso a uma gama infinita de novas fontes de dados, que devido à dificuldade de análise, muitas vezes são inexploradas”, responde Santo.

Segundo ele, a Teradata conta com ferramentas de hardware e software para lidar com Big Data. “Estamos no mercado de appliances que executam o Hadoop e Aster Data dentro da mesma infraestrutura e isso é um diferencial. Nosso DNA é fazer análise de dados, por isso estamos à frente no trabalho com Big Data”, assegura.

A Teradata conta com o Aster Big Analytics Appliance, solução unificada para análise de grandes quantidades de dados que reúne, em um appliance, o Aster Analytics e o Hadoop. A solução executa o trabalho de análise em um ambiente multi sistema, explica Santo. 

Para reforçar a atuação em Big Data, nos últimos anos a Teradata investiu 800 milhões de dólares na aquisição de empresas do setor. Aprimo, Aster Data Systems e eCircle estão na lista de compras. Recentemente, a fabricante também passou a trabalhar em estreita parceria com a Hortonworks, empresa que atua na promoção do desenvolvimento da plataforma Apache Hadoop. “Agora ficou mais fácil desenhar uma solução para Hadoop que é simples de ser utilizada. Assim, complementamos a capacidade analítica de nossas soluções”, assinala o executivo. 

Santo diz que em 2012, a busca por Big Data foi mais conceitual. “A frase que mais ouvimos no ano passado foi ‘me explica o que é Big Data’. Foi um movimento inicial e incipiente”, relata. “Em 2013, certamente teremos algumas provas de conceito e clientes no Brasil. Mas somente em 2014 acredito que será, de fato, o ano do Big Data”, opina.

Nova era

Colin Mahony, vice-presidente e gerente geral da HP Vertica, acredita que, assim como outras transformações da TI no passado – como a chegada do mainframe, a mudança cliente/servidor, e a internet - Big Data cria oportunidades para todo tipo de companhia. “Estudos mostram que para cada dólar gasto com análise é possível obter 20 dólares de retorno”, contabiliza.

O sucesso da iniciativa, no entanto, depende de pensar na estratégia além da tecnologia. “Nunca implemente a tecnologia pela tecnologia. Foque no business case e nos desafios de negócios. Identifique ainda onde a empresa quer chegar com Big Data”, aconselha. “Não pegue carona no hype”, completa.

Para ampliar capacidades de análises em suas ferramentas, a HP comprou em 2011 a Vertica, empresa dedicada ao software de data warehouse e análise de dados de negócios. “Os diferenciais da nossa plataforma, a Vertica Analytics Platform, são velocidade, performance e escalabilidade. Estamos sempre simplificando análises para tornar os trabalhos mais fáceis”, etalha. “Uma das razões pelas quais a HP comprou a Vertica foi para poder olhar para as áreas de segurança, cloud e dados”, completa. “Há poucos fabricantes que podem de verdade dizer que têm um arsenal completo para lidar com Big Data, porque envolve expertise, hardware, software etc. Temos tudo isso”, garante. 

No Brasil, Mahony explica que a HP está trabalhando em oportunidades nos setor de óleo e gás, telecomunicações e mídia. A boa notícia das implementações de Big Data, diz ele, é que as empresas não precisam jogar fora o investimento em infraestrutura para suportar o novo cenário. Sistemas legados ainda têm valor e eles podem se integrar com tecnologias atuais de Big Data.

A Oracle também reforçou seu plano para ajudar empresas de diferentes segmentos a obter vantagem competitiva por meio de dados estratégicos. Fábio Elias, diretor de arquitetura de soluções de tecnologia e Big Data da Oracle do Brasil, afirma que em fevereiro a empresa de Larry Ellison iniciou um treinamento com parceiros para que eles promovam tecnologias nessa área. “Também estamos atuando em cooperação com algumas instituições de ensino para trazer soluções aos problemas que vivemos no dia a dia. Um dos desafios é encontrar plataformas para suportar esses projetos de pesquisa”, diz.

De acordo com Elias, o Oracle Big Data Appliance é um dos componentes da solução da fabricante. Big Data, prossegue, tem alguns estágios. O appliance se encaixa no primeiro: o de aquisição da informação. O segundo componente é o banco de dados Oracle. O Oracle Exadata Database Machine, combinação de hardware e software, entra na parte de organização para fazer modelagem e promover inteligência aos dados. A terceira camada é o Oracle Exalytics In-Memory Machine, que tem BI em memória e leva velocidade de análise diante de montanha de informações.

“Trata-se de uma solução de ponta a ponta, já integrada, que facilita e leva simplicidade à implementação. Para se ter uma ideia, em um projeto tradicional de Big Data, uma empresa tem de lidar com 1,8 mil cabos e mais 1,5 mil horas de trabalho. Com nossa solução, pré construída e pré configurada, são necessários 48 cabos e cerca 40 horas de trabalho”, compara. “O objetivo é fazer a companhia focar na geração de insights para os negócios e não se preocupar com a instalação.”

Ele conta que grande parte do investimento de 5 bilhões de dólares em pesquisa e desenvolvimento (P&D), aplicado no ano fiscal 2013, que acaba em maio deste ano, vai ser direcionado para iniciativas de Big Data. 

“Desenvolvemos diversos conectores para ligar ao Exadata. Todos eles estão habilitados para conversar com bancos de dados tradicionais. Mais de 50% das empresas no Brasil usam banco de dados Oracle e temos conectores prontos para integrar com informações de sistemas que elas já possuem”, destaca.

A Oracle também tem realizado aquisições para reforçar seu potencial analítico, diz. A Endeca, fornecedora de soluções para gestão de dados não estruturados, web commerce e BI, foi a mais recente. 

Elias aponta que, atualmente, a Oracle está em conversas avançadas com cerca de 20 empresas no Brasil para dar início a projetos de Big Data. Indústrias como telecom, bancos, seguradoras e e-commerce estão de olho nas soluções, diz, sem, no entanto, citar nomes.

Big Data está na moda e será um marco na história da TI, sentencia Flavio Bolieiro, vice-presidente para América Latina da MicroStrategy, fornecedora de software de BI. Para ele, entretanto, o desafio ainda está em entender o que há por trás de dados não estruturados, como as redes sociais e sensores de aparelhos. “As empresas começam a analisar dados do Facebook e Twitter, por exemplo, mas a intenção é mapear o sentimento dos seguidores em relação à marca e não estabelecer estratégias futuras com base em informações”, acredita.

A indústria, prossegue, conta com soluções para enxergar além dos dados estruturados, mas ainda há um longo caminho para esmiuçar os não estruturados. “Estamos nos movimentando para aprimorar as capacidades de ajudar na compreensão daquilo que vem das redes sociais e de outras fontes não estruturadas”, conta. 

Bolieiro diz que a MicroStrategy lançou no ano passado o Wisdom, aplicação analítica gratuita em nuvem que possibilita a exploração de uma ampla gama de informações demográficas e psicográficas contidas nos perfis do Facebook. “A tendência é que as empresas conquistem um nível de maturidade e analisem dados dos clientes para tirar valor”, observa.

A tecnologia foi usada para monitorar dados durante a campanha presidencial nos Estados Unidos. A análise, que reuniu informações de mais de 3,5 milhões de perfis no Facebook, descobriu, por exemplo, que na cidade de Granite, localizada no Estado de Illinois, 31% dos eleitores que “curtiram” ao menos uma página política an rede social, eram fãs de Mitt Romney. 

O jornal norte-americano The Washington Post também empregou o Wisdom para identificar as pessoas com perfil na rede social que “curtem” os principais candidatos republicanos e elaborou um ranking com os livros, músicas e esportes que atraem cada um dos seguidores desses candidatos. “Este ano, vamos lançar dois produtos [Alert e Usher] que vão ao encontro do Big Data para que empresas pensem próativamente nas redes sociais”, conta.

Com essas novidades, Bolieiro diz que a meta é conquistar mais clientes em todo o mundo. Segundo ele, 40% da base de clientes mundiais da MicroStrategy atualmente conta com soluções de Big Data. No Brasil, o número é um pouco menor.

A fabricante também se reestruturou para melhor posicionar a oferta de Big Data e facilitar o acesso de empresas. “Agora atuamos por produtos. Antes era somente por vertical. Contamos ainda com mais de 30 profissionais no Brasil para lidar com o tema”, relata.

O cardápio de Big Data é vasto e tende a crescer cada vez mais. Com a indústria aprimorando tecnologias e conquistando empresas de diferentes segmentos, os negócios têm grandes oportunidades de ganhar competitividade analisando seus dados e seus consumidores. Na cadeia de valor, também ganha o cliente, cada vez mais exigente sobre qualidade e velocidade de oferta. 

cio.uol.com.br

Escrever um comentário (0 Comentários)

Qual é o perfil do profissional de Big Data?

Novos empregos serão criados por causa de Big Data, mas as chances não são para todos. Veja o que os empregadores buscam no especialista da área.

Tecnologias de Big Data estão em ascensão, sentenciam analistas do mercado. Esse cenário está ajudando a criar grandes oportunidades de carreira para profissionais de TI, mas as chances não são para todos.

De acordo com um relatório publicado em 2011 pela consultoria McKinsey & Co., os Estados Unidos podem enfrentar, em 2018, uma escassez de 140 mil a 190 mil pessoas com “talentos analíticos profundos” e de 1,5 milhão de pessoas capazes de estudar dados para tomar decisões de negócios. O quadro se repete em solo nacional. 

As empresas estão (e vão continuar) procurando profissionais com um conjunto complexo de habilidades para concretizar a promessa de Big Data de promover vantagem competitiva. “Não há dúvidas de que o talento é o primeiro requisito para as empresas que levam a sério a obtenção de vantagem competitiva utilizando dados e análises”, avalia Jack Phillips, CEO da empresa de pesquisa International Institute for Analytics (IIA), localizada nos Estados Unidos.

Mas o que deve reunir um talento em Big Data? Quais as competências necessárias para conquistar um emprego na área? Que tipo de formação qualifica uma pessoa para trabalhar no segmento?

“Não há unanimidade para o perfil do profissional de Big Data”, diz Sandeep Sacheti, ex-chefe do risco e análise do UBS Wealth Management, que agora ocupa o cargo de vice-presidente de pesquisas com consumidores e excelência operacional na Wolters Kluwer Corporate Legal Services, que atua na área jurídica.

Em seu novo emprego, Sacheti lida todos os dias com Big Data. Ele analisa grandes quantidades de dados para entender clientes, desenvolver produtos e reduzir custos operacionais. Em um dos projetos em curso, a divisão da Wolters que vende serviços de fatura eletrônica para escritórios de advocacia, usa análises para extrair dados que reúne de seus clientes (com a permissão deles) para criar produtos, incluindo o “Real Rate Report”, que compara taxas de escritórios de direito nos Estados Unidos. 

Sacheti busca agora profissionais para atuar na área e também treinamentos para sua equipe. Ele separa as oportunidades de Big Data em quatro vertentes: cientista dados, arquiteto de dados, visualizador de dados e agente de mudança de dados.

Ele lembra, no entanto, que não há padrão para os títulos dos cargos. O que uma empresa chama de analista de dados, por exemplo, pode ser definido de outra forma em diferentes companhias, constata John Reed, diretor-executivo sênior de pessoal de TI da Robert Half Technology, organização de recrutamento. O próprio cargo de Sacheti mostra que alguns profissionais não carregam o termo Big Data no título. 

“Todos perguntam: ‘Como identifico esse profissional? Quais habilidades devo procurar?’”, comenta Greta Roberts, CEO da Talent Analytics, que desenvolve software para ajudar os empregadores a correlacionar as competências dos trabalhadores e suas características para alavancar o desempenho dos negócios.

Roberts, Phillips e outros especialistas dizem que as habilidades mais citadas incluem conhecimentos em matemática, estatística, análise de dados, análise de negócios e processamento de linguagem. E, embora os títulos não sejam sempre os mesmos, alguns, como cientista de dados e arquiteto de dados estão tornando-se mais comuns.

Curiosidade faz a diferença

Segundo Josh Wills, diretor sênior de ciência dados da Cloudera, que vende e suporta a versão comercial do Hadoop (framework que gerencia Big Data), há uma tendência pela busca de talentos que tenham atuado como desenvolvedores de aplicativos e engenheiros de software, mais do que profissionais que trabalharam na operação de TI. 

Isso não quer dizer que especialistas em operações de TI não sejam necessários para a estratégia de Big Data. Afinal, eles desenham a infraestrutura e apóiam os sistemas de Big Data.

“É daí que saem os profissionais de Hadoop”, observa D.J. Patil, cientista de dados da Greylock Partners, empresa de capital de risco. “Sem eles, a empresa não pode fazer nada. Eles estão construindo infraestruturas impressionantes, mas não necessariamente fazem a análise”, completa.

Funcionários de TI podem aprender rapidamente sobre Hadoop por meio de aulas tradicionais ou autoaprendizagem, observa. Isso porque a maioria dos postos de trabalho emergentes em Big Data exige conhecimento de programação e capacidade de desenvolver aplicações e alinhamento com os negócios.

Patil é Ph.D. em matemática aplicada. Sacheti tem Ph.D. em agricultura e recursos econômicos. Patil acredita, no entanto, que atributos como curiosidade e criatividade importam mais para o profissional do que a própria área de estudo ou credencial acadêmica.

Wills, por exemplo, trilhou um caminho curioso até chegar à função de cientista dados. Depois de formar-se em matemática, partiu para uma pós-graduação em operações de pesquisa e conquistou um emprego no Google em 2007. Wills trabalhou no Google como estatístico e então como engenheiro de software antes de ingressar na Cloudera e assumir o posto de cientista de dados.

Procura-se tempero científico

Não faz muito tempo, curiosidade, criatividade e comunicação não eram pontos enfatizados em departamentos de TI. O IIA, afirma Phillips, vê o cientista de dados como aquele que reúne três importantes características: tecnológica (TI, hardware e software), quantitativa (estatística, matemática, modelagem e algoritmos) e de negócios (domínio da área). “Os profissionais bem-sucedidas têm o lado quantitativo aguçado”, observa. “Eles conhecem a tecnologia, mas não a executam. Eles dependem da TI”, avalia.

Big data também exige um tempero científico, destaca Wills. O talento da área precisa ser intelectualmente flexível o suficiente para mudar rapidamente seus pressupostos e abordagens diante dos problemas, diz Brian Hopkins, analista da Forrester Research. 

cio.uol.com.br

Escrever um comentário (0 Comentários)

Dez regras clássicas para implementar Business Intelligence com sucesso


É essencial aprender com os erros de outros para que o projeto não falhe.

No passado, as companhias gastavam muito dinheiro com BI, mas nem sempre conseguiam alcançar os resultados pretendidos. Prova disso, as reclamações dos usuários sobre a falta da qualidade dos dados e a dificuldade de utilização dos sistemas e ferramentas de BI, assim como relatórios incompletos ou dados imprecisos que impactam a tomada de decisões. Estas debilidades são causadas por fraquezas funcionais e organizacionais na implementação de projetos de Business Intelligence.

Particularmente com novos projetos de BI é essencial aprender com os erros de outros para que o novo projeto não falhe. A Information Builders compilou dez dicas de ouro para a implementação do BI.

1. Definir os requisitos funcionais

Comece por indicadores de desempenho (KPI – Key Performance Indicators), que são o centro de qualquer aplicação de BI. A equipe do projeto, composta por colaboradores do departamento de TI e de outros departamentos especializados, deve determinar que informação deve ser disponibilizada pelas aplicações de BI, quando é necessário estar disponível e em que formato.

2. Definir os grupos de utilizadores

A equipe do projeto deve definir quem são os utilizadores da solução de BI. Existem geralmente três grupos de utilizadores: utilizadores gerais de relatórios; os produtores e analistas que avaliam os dados; e finalmente os gestores que decidem os objetivos

3. Envolver os utilizadores numa fase inicial

Na fase inicial, o departamento de TI deve criar um protótipo simples da solução. Desta forma, pode ser feita uma revisão assegurar que os requisitos essenciais serão incluídos desde o início. Na implementação de um projecto de BI, os colaboradores dos departamentos especializados devem sempre ser incluídos paralelamente, uma vez que são esses indivíduos que, no futuro, irão trabalhar com as aplicações. Quando se testar o protótipo, esses colaboradores podem determinar se o projeto segue o escopo.

4. Ter apoio da Gestão

A equipe do projeto deve ter apoio da gestão. Esta é a única forma de garantir que os objetivos corporativos a curto e longo prazo sejam incorporados. A implementação é monitorizada pela comparação de indicadores de desempenho (KPI) permanentes dos rácios operacionais mais importantes.

5. Identificar os Indicadores de Desempenho (KPI) requeridos

São necessários valores operativos a gestão dos processos de uma companhia. A equipa de projecto deve defini-los em conjunto com o departamento especialista. No manuseamento e produção de materiais, por exemplo, indicadores de desempenho tais como “custo do material por cada componente” ou “volume de negócio por colaborador” são variáveis provadas. Isto torna mais fácil determinar se os objetivos foram alcançados ou não.

6. Garantir a integração e qualidade dos dados

Integração dos dados é um fator decisivo o sucesso de um projeto de BI. A equipe deve identificar os sistemas operacionais nos quais a informação requerida está disponível e como os dados devem ser acessados. informação atualizada, o acesso direto é a melhor opção. Se a qualidade dos dados brutos não for suficiente, isso deverá ser melhorado com as ferramentas de software apropriadas acessar todas as fontes de dados.

7. Descubra que ferramentas de BI já estão disponíveis na empresa

Quando um novo projeto é iniciado, é necessário determinar se as ferramentas existentes os usuários finais devem continuar a ser utilizadas ou se devem ser substituídas completamente. Na maioria dos casos, a padronização num único sistema de BI é preferível garantir consistência na disponibilização da informação dentro da empresa.

8. Escolher o Software de BI correto

Com uma Proof-of-Concept (PoC), a equipe de projeto decide o software mais adequado, baseando-se geralmente  em um briefing específico. Este procedimento permite à equipe de projeto garantir com maior grau de certeza de que o software se adequa ao seu negócio.

9. Limitar o tempo de execução do projeto

Aqui aplica-se a velha regra: “Tudo o que dure mais que seis meses deixa de ser um projeto e passa a ser um problema.” Quando se implementa um novo projeto de BI, os departamentos especializados devem estar centrados e proceder em claros passos definidos. Os subprojetos devem ser desenvolvidos que os primeiros módulos executáveis e operacionais estejam disponíveis depois de dois ou três meses.

10. Um projeto de BI é um processo constante

Os requisitos das companhias mudam constantemente e o mesmo se aplica a uma aplicação de BI. Todas as soluções de BI têm de ser continuamente desenvolvidas e otimizadas em uma base permanente. Esta é a única forma que têm de cumprir os requisitos

“O BI é, antes de tudo, uma tarefa de controle, compras, marketing e vendas. Os departamentos de negócio estão familiarizados com os requisitos individuais em termos de gestão da performance funcional e sabem que parâmetros e dados necessitam controlar os seus processos de negócio”, afirma Klaus Hofmann zur Linden, Technical Manager da Information Builders. “O departamento de TI deve construir a infra-estrutura as aplicações de BI e assegurar uma operação de confiança”.

cio.uol.com.br

Escrever um comentário (0 Comentários)

Business Analytics estimula a inovação e cultura orientada à informação

Estudo da Harvard Business Review Analytic Services e SAS revela as mudanças na tomada de decisões.
Seguir os instintos não é mais suficiente e a crescente pressão por melhores resultados fizeram com que os gestores passassem a adotar processos de tomada de decisão e tecnologias orientadas a informações e métodos quantitativos.
Recente pesquisa patrocinada pelo SAS, empresa especializada em inteligência analítica, realizada pela Harvard Business Services, descobriu que pelo menos 50% das organizações pesquisadas teriam desfrutados de melhores resultados financeiros caso tivessem ampliado o uso do Analytics.
O relatório mostra também que a utilização mais ampla dessas análises inteligentes aumenta inclusive a produtividade, reduz riscos e ajuda os executivos a tomarem decisões mais rápidas e assertivas. Em organizações orientadas à informação, os funcionários tornam-se mais proativos e criativos, criando um fluxo para gerar, testar, analisar novas ideias e incentivar a colaboração e inovação. Além disso, quatro em cada 10 entrevistados disseram que as áreas funcionais das suas organizações tornaram-se mais importantes com a adoção das análises preditivas.
“No mercado de produtos para o consumo, você pode pensar que não há razões para investir em outro detergente para roupas novas, mas os consumidores respondem fortemente à inovação. A diferença agora é que temos ferramentas para identificar o que era importante no ano passado, no último trimestre e na semana passada para entender o que acontecerá amanhã, no próximo mês ou no próximo ano”, afirma Filippo Passerini, presidente do Grupo de Serviços Globais e Chief Information Officer da Procter & Gamble. “Nós fazemos as análises de dados há 50 anos, mas estamos só começando a desenvolver a capacidade de antecipar o que está por vir. Isso é uma grande mudança conceitual de paradigma”, completa.

MetaAnalise

Escrever um comentário (0 Comentários)

As 10 tecnologias que serão alvo das empresas em 2013

Nuvem amadurece em solo brasileiro, BYOD (Bring Your Own Deviced) ganha mais adeptos e Big Data torna-se realidade. Essas são apenas algumas previsões para a TI nos próximos 12 meses.

Mobilidade, Big Data, cloud computing e redes sociais estiveram entre os tópicos mais comentados de 2012. Agora, esses temas saem do papel e passam a permear estratégias de empresas dos mais variados setores. O interesse por essas tecnologias não é à toa. Elas contribuem para o crescimento dos negócios e garantem vantagem competitiva. TI tornou-se, de fato, o coração das operações.

Os líderes de tecnologia da informação (TI) já enxergam esses benefícios e apontam em seus caderninhos projetos para 2013 que incluem tendências como BYOD, internet das coisas e até mesmo a nuvem, que agora figura em solo brasileiro, nobre e soberana.

“O uso efetivo de tecnologia continua a ser o principal diferenciador entre as organizações que têm sucesso e as que falham”, sentencia Ray Wang, principal analista e CEO do instituto de pesquisa norte-americano Constellation Research. “TI não é vista como a área que somente mantém as luzes acesas”, completa. Segundo ele, os gastos com tecnologia em 2013 vão saltar de 15% a 17% em todo o mundo.

O instituto  de pesquisas Gartner prevê que as organizações brasileiras investirão 133,9 bilhões de dólares em TI em 2013, aumento de 6% em comparação com os gastos de 126,3 bilhões de dólares, estimados para 2012. As quatro forças que estiveram na pauta das empresas, cloud computing, rede social, mobilidade e Big Data, continuarão na lista de prioridades, segundo o instituto de pesquisas.

Veja a seguir as dez tecnologias mais estratégicas que estarão em alta em 2013 e como elas vão impactar nos negócios, segundo diferentes consultorias.

1. Mobilidade e dispositivos móveis

Mobilidade reina absoluta entre as empresas. Estudo recente do The State of the Internet, promovido pelo site Business Insider, afirma que a venda de smartphones em todo o mundo ultrapassou a de computadores em 2011. 

Foram mais de 400 milhões de unidades de smartphones contra cerca de 350 milhões de PCs. Esse cenário tem feito com que a mobilidade ganhe força no mercado corporativo. 

A Forrester Research diz que a popularidade do iPad entre os usuários deverá acelerar a introdução dos tablets nas empresas. De acordo com a consultoria, 81% das companhias pretendem estabelecer estratégias para a adoção de tablets. E em 2016, 250 milhões desses dispositivos serão usados para fins profissionais.

Muitos departamentos de TI já suportam dispositivos nos negócios por meio de dois movimentos sem volta nas companhias: consumerização e BYOD. Consumerização definitivamente entrou para a agenda das empresas, diz Fernando Belfort, líder de Pesquisas & Consultoria na América Latina da Frost & Sullivan. 

O desejo e a pressão para usar dispositivos móveis têm aumentado. O cabo de guerra entre TI e colaborador está sendo puxado com força para o lado do funcionário. “Organizações vão encontrar várias formas de lidar com o mar de dispositivos, seja por meio da adoção de soluções de MDM, virtualização de desktop, antivírus ou infraestrutura de escritório para Wi-Fi”, opina Belfort.

O Gartner acredita que BYOD vai saltar em 2013. Para o instituto de pesquisas, os dispositivos móveis devem suplantar os PCs como ferramentas de acesso mais comum à internet. Para a Nucleus Research, BYOD diminuirá em 2013 à medida que a estratégia de mobilidade empresarial crescer. Na opinião da consultoria, o movimento atingiu o ápice de aceitação de mercado em 2012. 

A Rhodia, empresa do Grupo Solvay, que atua no setor químico, vai reforçar a segurança em 2013 para utilizar dispositivos de uso pessoal no ambiente corporativo. “Permitimos o BYOD, mas ainda está em fase inicial. Não temos estimulado de forma agressiva. Em 2013, com as mudanças na proteção do ambiente, vamos impulsionar o movimento”, relata Fernando Birman, diretor de Sistemas de Informação para América Latina da Rhodia. 

“Investimento em mobilidade é uma das mais importantes iniciativas da estratégia global de TI da Alcoa”, afirma Tania Nossa, CIO da América Latina & Caribe da Alcoa, produtora de alumínio primário, alumínio transformado e mineradora de bauxita e refinadora de alumina. “É inevitável o fator do anywhere, anytime e agora do from any device”, assinala.  

A área de TI da Alcoa está trabalhando para adaptar os aplicativos da companhia para esses aparelhos, com o objetivo de proporcionar mais flexibilidade, acessibilidade e rapidez nas tomadas de decisão. “Não é tendência, já é realidade”, indica.

A Carbocloro, que atua no fornecimento de cloro para tratamento de água e matérias-primas para a indústria, também vai mergulhar nesse universo. “Adquirimos o SAP Afaria para gerenciar dispositivos móveis e com isso pretendemos ampliar a onda do BYOD, que já se faz presente aqui”, comenta José Carlos Padilha, CIO da empresa.

O acesso a sistemas corporativos também é permitido por meio de dispositivos pessoais, garante Padilha. “Temos criptografia e acesso via VPN para atestar a segurança. Tudo é controlado”, assinala.

2. Cloud acomoda-se em solo nacional

Para Belfort, cloud passou por uma onda de entendimento nos últimos dois anos e em 2013 veremos grandes projetos na área. Segundo ele, toda tecnologia tem sua fase natural de maturidade e cloud entra na fase adulta. 

A nuvem mudou a forma de comprar e prover serviços, avalia Sandro Melo, coordenador do curso de Rede de Computadores da BandTec, entidade educacional que oferece cursos na área de TI. “O modelo privado é o que mais vai despontar”, acredita.

A Ancar Ivanhoe Shopping Centers, administradora de mais de 20 shoppings centers no País, tem grandes planos para 2013 em torno da nuvem. A empresa quer simplificar a operação e passar, aos poucos, todo o data center para a cloud. “Iniciamos esse processo e adotamos o Google Drive”, comenta Fernando Wanderley, gerente-geral de TI da Ancar.

A meta da companhia é crescer quatro vezes em três anos e Wanderley acredita que a nuvem será vital para conquistar esse objetivo, já que empunha as bandeiras de flexibilidade, escalabilidade e agilidade.

A Carbocloro ainda tem alguns receios em relação ao modelo e por isso vai adiar os planos. “Nossa única exceção é o CRM”, pontua. “O restante ficará dentro de casa até termos definições claras sobre privacidade e questões legais”, completa.

Cloud computing é uma das prioridades da estratégia de TI da Alcoa, que tem como objetivo ganho de escala, produtividade e otimização de recursos tecnológicos.  A companhia possui soluções de software como serviço (SaaS) globalmente em vários processos de negócios e no momento conclui consolidações globais em um único data center nos EUA de e-mails, portais de colaboração e ERP, partindo para o conceito de nuvem privada, o que viabilizará, no futuro, a adoção de plataforma como serviço (PaaS) e infraestrutura como serviço (IaaS).

3. Nuvem pessoal substitui o conceito de computador pessoal

Hoje, já é comum um usuário ter um mix de tecnologias como computador pessoal, notebook, iPad e Android. Sincronizar esses dispositivos passou a ser um desafio. “A nuvem vem para facilitar e dar mais segurança a esse processo”, opina Tania.  “Percebo que as pessoas têm forte apego e confiança em relação ao computador pessoal. Mudar isso exige tempo, lembrando que o tempo a que eu me refiro é o de tecnologia, bem diferente do cronológico”, constata.

Diante desse quadro, a Alcoa conta com uma rede, batizada de AA Mobile, para que os executivos possam acessar suas “personal clouds” sem impactar na rede corporativa.

O Gartner acredita que a nuvem vai abrigar todos os aspectos da vida de uma pessoa. Por ser um modelo tão vasto e capaz de empacotar recursos infinitos “nenhuma plataforma, tecnologia ou vendedor vai dominá-lo”, indica o instituto de pesquisas. 

4. Big Data será compreendido

Belfort constata que Big Data está hoje no mesmo estágio que se encontrava cloud há dois anos. “Algumas empresas ainda não compreendem o modelo e como ele pode ser aplicado nos negócios”, diz. Ele lembra que, hoje, muitas organizações já contam com área de BI e os profissionais do setor vão evoluir seu perfil para, em vez olhar para dados do passado, verificar tendências futuras.

Em 2012, Amazon.com, Petrobras, Lojas Renner e Serasa Experian já experimentaram os benefícios do modelo que transforma montanhas de dados em informações valiosas, comenta Belfort.

Levantamento da Frost & Sullivan indica que o mercado brasileiro representa quase metade da receita de Big Data da América Latina. Ele deve crescer 71% de 2012 para 2013, totalizando 576 milhões em solo nacional, e 33% de 2013 para 2014.

Projetos de Big Data estão-se tornando mais econômicos para as empresas, graças, em parte, aos servidores e CPUs de baixo custo, afirma o Gartner. Big Data estratégico, acredita o instituto de pesquisas,  fará com que usuários executem projetos não mais isolados. Companhias vão incorporar a análise da grande massa de dados em mais atividades que desempenham.

5. Analytics 

Analytics acionável é, em alguns aspectos, um desdobramento de Big Data, aponta o Gartner. A maioria das análises hoje concentra-se em olhar para dados históricos, o próximo passo é prever o que pode acontecer.

A Amcham ouviu, em parceria com o Ibope, 214 altos executivos de empresas de variados portes em diversas regiões do País, e constatou que em 2013 os aportes em ferramentas de TI serão voltados especialmente para Business Intelligence (BI). Entre os entrevistados, 58% disseram que essa era a principal prioridade. 

Melhorar as capacidades analíticas é também um dos focos da Rhodia para os próximos meses. “Sempre aprimoramos nossa solução de BI porque as necessidades mudam e as métricas precisam evoluir para acompanhar as demandas dos negócios”, comenta Birman.

Tania indica que na Alcoa o momento atual também inclui a simplificação e a consolidação dos warehouses de Business Intelligence Services (BIS) para levar mais inteligência aos negócios.

6. Computação in-memory 

Com o crescimento de análises, aquece também, de acordo com o Gartner, o interesse por soluções em memória, que agilizam a busca por dados. Elas permitem que atividades que consomem horas sejam executadas em minutos. 

O Gartner acredita que computação em memória vai-se tornar uma plataforma dominante no próximo ano ou dois. Para Padilha, computação em memória está distante. “Vamos adotar, mas não agora”, adianta. Segundo ele, a ideia é prover análises mais detalhadas para as áreas de negócios e possibilitar eficiência.

A Alcoa está em processo de atualização da ferramenta de Enterprise Resource Planning (ERP) e apostou no Oracle Exadata Database Machine para aprimorar as capacidades analíticas. A solução conta com recursos em memória, explica Tania.

7. Comunicação máquina a máquina

Tudo vai conectar-se à internet, incluindo câmeras, realidade aumentada, edifícios e sensores. “Começamos a ver as conexões entre máquinas em modelos simples. Teremos de esperar mais três anos para que essa tendência se torne realidade”, completa Wang.

Atualmente, a Alcoa tem pilotos de “Smart Manufacturing”. “Os softwares integram-se aos equipamentos de processos e, dependendo dos parâmetros de temperatura e pressão, por exemplo, os Programmable Logic Controllers (PLCs) comandam uma determinada ação. Tudo integrado à mobilidade e conectado à internet”, detalha Tania.

A Ancar executou em 2012 um piloto com realidade aumentada. O projeto envolveu a criação de um aplicativo para Android e iOS batizado de Primavera. Ao entrar em um dos shoppings centers da rede, a pessoa participava de um desafio para completar uma flor e ganhar um brinde. A flor era projetada a partir do smartphone e movia-se. “Estudamos ampliar a iniciativa em 2013”, comenta Wanderley.

8. Aplicativos em HTML5

O Gartner observa que os aplicativos nativos tradicionais não vão desaparecer e “sempre oferecerão a melhor experiência ao usuário com recursos sofisticados.” HTML 5, tecnologia multiplataforma que torna a presença na web mais simples e uniforme, seja qual for o aparelho do usuário, vai despontar nesse cenário.

“Utilizamos HTML5 para aplicações que necessitam ser multiplataformas (mobile, desktop, tablets). Para soluções exclusivas, direcionadas a dispositivos móveis, optamos por desenvolver aplicações nativas, que dispõem de recursos mais ricos e sofisticados para o usuário, utilizando e distribuindo via solução MDM”, diz Tania.  

A Rhodia desenvolve dentro de casa suas aplicações e os próximos trabalhos, relata Birman, serão executados em HTML5. A Carbocloro faz o caminho inverso: desenvolve com ajuda de parceiros e está atenta ao tema para modernizar ou criar aplicativos no próximo ano.

9. Lojas corporativas de aplicativos

O Gartner acredita que lojas empresariais de aplicativos vão transformar os departamentos de TI, proporcionando governança. Elas serão o espaço para encontrar tudo o que o usuário precisa para aprimorar o trabalho da área. A CIO da Alcoa explica que a empresa está em linha. “A adoção do MDM trará mais segurança e flexibilidade, possibilitando a implementação do conceito “Alcoa Store”, uma loja corporativa de aplicativos”, comenta.

10. Gamification

O gamification, técnica digital que aplica ao meio corporativo características lúdicas e lógicas que são também encontradas em jogos de videogames, vai invadir as empresas. “Organizações podem usar o modelo dos jogos para orientar o comportamento dos funcionários e promover a transferência de conhecimentos, programas de vendas e colaboração”, reflete Wang.

O Gartner prevê, no entanto, que, até 2014, 80% das atuais aplicações de gamification não vão conseguir cumprir os objetivos de negócios, principalmente por causa do design defasado.

“O desafio para os gerentes de projetos e responsáveis por iniciativas de gamification é a falta de talento de design de jogos para desenvolver trabalhos na área”, avalia Brian Burke, vice-presidente de Pesquisa do Gartner.

Como serão os orçamentos de TI em 2013?

Executivos da área estão cuidadosamente desenhando suas estratégias focando em redução de custos e crescimento dos negócios

Eric Lindgren, CIO da PerkinElmer, empresa de tecnologia, serviços e soluções para monitoramento ambiental e segurança alimentar, vai passar os próximos 12 meses, como muitos de seus pares, em busca de poupanças que podem ser realocadas para iniciativas de tecnologia de alto impacto, como mobilidade e análises. 

Como parte desse esforço, a TI vai continuar a racionalizar o portfólio de aplicativos, mudando investimentos fixos para variáveis por meio de uma nuvem privada. Lindgren também projetou seu orçamento de forma que ele possa reduzir ou ampliar os investimentos, dependendo de como a economia global caminha. 

Na mesma direção, está a TI da Rhodia, que opera no Brasil com duas unidades de negócios, a de produtos químicos e a de fibras. Fernando Birman, diretor de Sistemas de Informação para América Latina da Rhodia, afirma que o orçamento global de TI em 2012, de 120 milhões de euros, será mantido. “Sempre começamos o ano de forma conservadora e depois mudamos o ritmo dos investimentos em sintonia com a situação econômica”, detalha.

Do total, a maior parte do dinheiro será direcionada para manter a operação do dia a dia e importante fatia será investida na integração da Rhodia com o Grupo Solvay. “Também faremos upgrades de hardware e software e vamos atualizar o parque de cerca de 3 mil equipamentos na América Latina para Windows 7”, explica.

Reportagem publicada por Mary Brandel, na COMPUTERWORLD norte-americana, afirma que as lições deixadas pela recessão estão deixando os CIOs com os pés no chão. Segundo pesquisa realizada pela revista, o perfil do orçamento para 2013 mostra que há um senso de otimismo cauteloso em relação ao bugdet. Dos 334 entrevistados, 43% disseram que vão aumentar seus orçamentos, contra 36% no ano passado. Outros 64% indicaram que planejam realizar grandes aquisições em TI nos próximos 12 meses. Em 2011, 60% afirmaram o mesmo. 

Segundo Ray Wang, principal analista e CEO do instituto de pesquisa norte-americano Constellation Research, o orçamento em 2013 terá uma pequena queda de 2% a 3%.

A provedora de serviços de gestão, Booz Allen, tem ampliado seus gastos com tecnologia nos últimos três anos, mas seu orçamento ficará estável nos próximos 12 meses, segundo Joe Mahaffee, vice-presidente-executivo e chefe de Segurança da Informação da empresa. Entre as prioridades da companhia para 2013 estão sete iniciativas estratégicas que deverão contribuir para reduzir custos e fortalecer os negócios. “Fazer mais com menos é o lema”, diz Mahaffee.

Na direção oposta, está a Ancar Ivanhoe Shopping Centers, administradora de mais de 20 shoppings centers no País. Fernando Wanderley, gerente-geral de TI da Ancar, comenta que em 2013 o orçamento da área será maior do que em 2012. “TI tem papel cada vez mais importante na empresa”, justifica.

Segundo ele, a maior parte do budget, que não foi divulgado, será direcionada para a atualização de versão do ERP e para melhorias de segurança de borda em razão da mobilidade. 

A Western & Southern Financial Group, companhia de serviços financeiros, reorganizou nos últimos meses sua unidade de TI para dedicar mais recursos a tecnologias emergentes. Entre elas, mobilidade e mídias sociais. “Um profissional de serviços financeiros que usa um tablet impressiona mais do que um laptop”, assinala Doug Ross, vice-presidente e CTO da Western & Southern. 

Na Carbocloro, que atua no fornecimento de cloro para tratamento de água e matérias-primas para a indústria, os olhares também estão voltados para mobilidade, mas boa parte do tempo da TI será consumida para substituição dos sistemas legados, desenvolvidos internamente, por tecnologias de mercado para possibilitar confiabilidade, controle e eficiência, afirma José Carlos Padilha, CIO da empresa.

O orçamento para 2013 triplicou, ficando em torno de 12 bilhões de reais. “Esse valor será usado ainda para adquirir hardware e melhorias no data center”, completa.

Aurélio Boni, vice-presidente-executivo de TI do Bradesco, indica que a área vai investir em seis tecnologias-chave: fortalecimento do CRM, ferramentas de análise como BI e BA, mobilidade, fortalecimento da segurança da informação, ferramentas para análise de crédito e teleconferência.

De acordo com Andrew Horne, diretor da Corporate Executive Board, a TI em 2013 movimenta-se para pavimentar o seguinte caminho: projetos de mídia social, aplicações web, Business Intelligence (BI), analytics e colaboração.

O analista da Forrester Research Craig Symons também vê os gastos caminhando nessa direção, ele cita aplicativos móveis, middleware móvel, BI e análise como categorias de investimento. “Com esses tipos de projetos em suas carteiras, as empresas podem ser mais ágeis”, observa.

Qualquer que seja a trilha que os CIOs seguirão no próximo ano, fazer escolhas inteligentes e em linha com os objetivos de negócios é mandatório. Afinal, qualquer passo errado pode significar investimento jogado no lixo e perdas financeiras. Não há mais espaço para tentativas e erros. 

Computerworld

Escrever um comentário (0 Comentários)

Dashboard Best Practices to Improve Outsourcing Deals

Dashboard de melhores práticas que melhoram a terceirização - do Gartner Group

Business unit managers look to sourcing managers for effective business-centric support measures, so dashboard metric views must be relevant. We give examples of effective dashboard processes, inputs, outputs and formats with which to report business metrics.

Key Findings

  • Sourcing managers, business unit managers, service provider managers and contract managers can use this report to review and implement performance dashboards focused on outsourcing service provider management. Such dashboards are crucial for maintaining multisourced environments.
  • Gartner's IT Key Metrics indicate that 27% of deals engage the business to tailor metrics to business requirements, 41% have business metrics defined by IT, 23% are based on service providers' standard metrics, and 9% have no business metrics.1
  • Performance dashboards for IT outsourcing generally focus on IT technical and IT process performance metrics that do not adequately indicate the business effectiveness of IT outsourcing.2
  • Primary outsourcing service levels typically address IT technical and IT process metrics, while ignoring service provider management metrics and business performance metrics.
  • Business unit managers are not interested in current IT metrics and are increasingly frustrated with a measured performance status of "green" when the impact on the business is "red" — something known as the "watermelon effect."3

Recommendations to IT Sourcing Managers

  • Divide service-level metrics into two categories, to include IT technical and IT process metrics on the one hand, and business unit key performance indicators on the other.
  • Align the goals of business unit managers with IT deliverables by jointly developing effective metrics that support the business.
  • Develop and manage effective metrics to encourage appropriate service provider behavior in order to achieve your desired IT and business outcomes.
  • Include motivational metrics that encourage service providers to deliver innovation throughout the life of your outsourcing contract.
  • Implement dashboard reporting of metrics using a "fewer is better" approach, and always strive to deliver appropriate dashboard reports.

Analysis

Sourcing managers lead the transformation of IT, manage ROI and establish the size and skills of the retained organization to ensure effective financial results and resourcing. They need to be able to develop and implement the right performance measures and tools. The approach currently taken typically centers on the performance of IT technical and process outcomes, and the IT metrics often reflect performance measures developed, measured and reported by the IT organization in an attempt to define its value to the business. This often leads to a monthly reporting cycle in which metrics are meticulously maintained, but rarely of value beyond the IT organization. This approach ignores the value of IT performance to the business and thus creates several problems:

  • A need for effective metrics and dashboards to measure performance and value.
  • IT technical and process metrics that are used to measure the results of deals but that do not reflect business outcomes and are therefore not valuable beyond the IT organization.
  • Business unit managers frustrated by IT technical and IT process metrics that indicate effective IT performance but are ineffective for judging business success.
  • Service providers that, while meeting defined IT technical and process requirements, are not necessarily motivated by the metrics to do the right thing for the client's business.
  • Service providers not "owning" the complete process, a situation that thwarts the end-to-end measures that should be captured in an end-to-end dashboard.

IT Technical and IT Process Metrics

IT technical and IT process metrics have two key purposes: (1) to determine whether basic IT requirements are being met; (2) to measure the extent of delivery success or failure, and in the latter case focus root-cause analysis and restore IT operations and processes to an effective level. Without IT technical and IT process metrics, an IT organization can quickly become ineffective and perform unreliably.

A case in point was faced by one of Gartner's CIO clients who inherited a dysfunctional IT operation that had become complacent about system uptime. The CIO quickly implemented an effective service-level assessment with the company's service provider to focus on IT technical measures that identified problems and set performance improvement goals. He quickly had the two organizations delivering effective service. He also introduced a formal monthly meeting to address service-level performance and a weekly meeting to evaluate the root causes of any recurring problems and solve them. Soon all the IT employees were focused on maintaining service at a level that met the metrics.

From cases like this we know that the use of IT technical and IT process metrics are important for the delivery of consistent services for a business. Effective management of the service provider is also important to ensure that service levels are met and that delivery is driven by continuous improvement of its processes. The results are IT organizations that consistently deliver effective services.

Examples of IT technical and IT process metrics include:

  • Server uptime — 99.98% of the time, not counting maintenance windows (IT technical)
  • Network uptime — 99.999% of the time (IT technical)
  • Help desk call resolution — 80% first-call resolution (IT process)
  • Help desk time to answer — up to 45 seconds, 90% of the time (IT process)
  • Help desk user satisfaction — 85% satisfied or better with tickets and biannual survey (IT process)
  • Application development — less than 5% defect leakage to production (IT process)
  • Desk-side support problem resolution severity levels (1, 2 and 3) — Level 1 problems solved in two hours, 90% of the time (IT process)

For more information, see "Toolkit: Outsourcing Contract Statement of Work, Service-Level Agreement and Price Attachment" is one of 34 elements that make up an IT Outsourcing contract. These are just examples of service-level metrics — a complete SLA would also include detailed descriptions, penalties, earn-back criteria, examples of failure and formulas for measured performance. The IT technical and IT process metrics cited above are from SLAs that Gartner has collected from over 500 outsourcing deals and tracked on an annual basis for the past 15 years. The levels of service they indicate should not be considered as standard or a best practices; rather they denote common, understandable levels that are generally considered a reasonable basis for meeting the requirements of business units. Client organizations, together with their service providers, can use operational metrics to monitor performance, communicate the results, and provide input to a continuous improvement process.

Reporting and Motivation

The standard reporting process for IT technical and IT process metrics includes a monthly review to determine whether the metrics have been met and assess the penalties for any failure to meet them. (Penalties might include the loss of a bonus for an internal team or a reduced payment to the service provider, though the latter would need to be supported by full earn-back opportunities in order to encourage appropriate behavior from the service provider in future.) In addition, there should be a requirement to deliver a root-cause analysis of performance failure within a reasonable period from the time of reported failure — typically three to five business days. In cases where there is a history of failure, the IT technical and IT process metrics should be of interest to the business unit leaders.

A dashboard that captures the elements of IT operations metrics should include the day-to-day performance of the IT team. The example shown in Figure 1 is of an effective desktop support dashboard covering responsiveness, resolution, image management and customer satisfaction. It represents a compilation of a month's worth of data, which should be reported in the monthly service-level review meetings. The dashboard should be representative of metrics that are tied to penalties for poor performance (indicated by red circles).

Data for IT technical and IT process metrics are typically readily available and, if defined properly, both this data and the associated outcomes are unarguable. This data should be supplied to business units and other appropriate stakeholders in a standard monthly report. To minimize reporting requirements, many reporting strategies call for exception reporting only.

Figure 1. Example of an Effective Dashboard for Desktop Support

Figure 1.Example of an Effective Dashboard for Desktop Support
Green: high level of service
Yellow: meeting minimum requirements of the service level
Red: below the minimum requirements of the service level

Source: Gartner (June 2012)

Service Provider Management Metrics

Management processes for service providers should encourage them to behave in a way that delivers performance in the best interests of the client's organization. Among other things, there should be metrics to foster innovation (discussed further below), including initiatives to lower cost, and the implementation of processes that deliver simple, seamless and repeatable outcomes. At present, such metrics are often absent or neglected because they are generally less quantifiable from a cause-and-effect perspective, but they nevertheless represent important means for improving an service provider's behavior. These metrics may evolve over time as the measurement process matures and the client organization develops better processes. Service provider relationship performance metrics may also be used. For more information, see "Assessing Your Outsourcing Relationship's Health" and "Toolkit: Outsourcing Contract Innovation Plan Attachment" (note: the latter document has been archived; some of its content may not reflect current conditions).

When service providers propose innovative ideas, there is a need to measure their progress toward the anticipated new state, such as a defined innovative environment. The innovation process should answer the following questions: "What can we do?" "What should we do?" and "What will we do?" Answers to these questions are found by conducting a series of innovation workshops to define, prioritize and fund innovative improvements to technical, process and business outcome activities.

Service providers commonly aggregate agreed service metrics. Since the service metrics commonly used are technical and process level, there is a need to include metrics that drive continuous improvement throughout the life of a contract.

Examples of metrics relating to continuous improvement, service provider relationship and service provider innovation include:

  • Help desk incidents per user per month declining from 1.0 to 0.6 over two years
  • Help desk cost per user per month decreasing by 10% a year to reflect the unique-incident reduction expected from the deal
  • Effective relationship rating of 3.5 or better in areas of technical, financial, commercial and service provider feedback
  • Effective account management with successful escalation of issues for resolution, measured by time to resolution and resolution satisfaction.
  • Flexibility rating — a measure of how the service provider addresses new business needs or changes that may not be addressed in the contract
  • A formal innovation process with biannual meetings that deliver business impact savings totaling 20% of the annual outsourcing fees
  • Server processor utilization increasing to 68% over two years, with server virtualization increasing to 80% over two years (as applications allow)
  • Storage utilization to reach 75% of the available storage capacity in two years as storage is consolidated and storage processes are improved

The aim with such metrics is to motivate the service provider to deliver services and prices in an innovative way throughout the life of the engagement. This is accomplished by linking them to behavioral drivers, including financial rewards. Enterprises will also have to invest money from time to time to implement innovative ideas, as well as the technical and process improvements identified above (see "Improve Your Outsourcing Deal With the Proper Gainsharing Structure").

Reporting and Motivation

The standard reporting process for service provider continuous improvement and innovation metrics includes a monthly or quarterly review of metrics, depending on the "delivery gates" to be met. This process addresses whether metrics have been met and whether the expected business impact can be documented and approved by both the service provider and the client organization.

Reporting may be required on an exception basis. For example, root-cause analysis of missed performance should typically be required within three to five business days of the miss. Such reporting focuses attention on adjusting processes to improve performance.

When metrics are achieved, a shared-savings bonus may be generated for the service provider, while the client organization benefits from cost savings. The performance impact of meeting these metrics may result in a step-down price for the services delivered for the rest of the engagement. The impact of metrics may be unique to each engagement, so both parties need to define the level of the service metrics.

Since billing can be impacted, to be effective, continuous improvement, innovation and gainsharing arrangements must form a contract-based statement of performance measurement that rewards service providers for specific performance. These metrics must be specified in the contract and be designed to influence the service provider's behavior and enable both client organization and service provider to manage their relationship effectively. Used properly, continuous improvement, innovation and gainsharing metrics can foster a positive relationship between client organization and service provider, and encourage the service provider to "go the extra mile." Used improperly, however, they can cause significant relationship problems, especially within the client organization, as it learns that it is paying additional fees not commensurate with the business value delivered. This can lead to the relationship's demise.

A good dashboard captures elements from useful survey data addressing the areas of technical and process expertise, data about cost and financial capabilities, data about commercial validity, as well as the service provider's feedback. In the example shown in Figure 2 the score is weighted for an overall rating to answer the question "Do we have a good relationship?"

Figure 2. Example of an Effective Dashboard for Relationship Management
Figure 2.Example of an Effective Dashboard for Relationship Management
Source: Gartner (June 2012)
 

Business Metrics

Business metrics measure the impact of IT on the client organization's business, as well as the impact of the service provider's performance on the client organization's revenue, the cost of producing the end product or service, and customer retention or satisfaction. The business metrics should be formulated with the help of business unit managers, the IT organization and the service provider.

Service providers can play an important role as they deliver services that may draw on innovation or findings from similar industries or accounts. The expertise required for this may extend beyond the normal areas of IT, and thereby impact on the processes found in business organizations. To be effective, business metrics should link to business transactions or capabilities that are enhanced by more effective IT processes. The metrics should encourage all involved parties to deliver in the best interests of the business unit. The metrics themselves may evolve over time as the measurement process matures and the business unit calculates the revenue and expense impact. Their purpose is to have a direct impact on the business in terms of revenue, cost or customer satisfaction.

Examples of business metrics for various industries include:

  • Radiology equipment utilization
  • Automotive assembly line uptime
  • Product production defect rate
  • Retail website transaction capacity
  • Website sales to visits percentage increase
  • Reduced time in weeks for product development in the IT life cycle
  • Claims process improvement of 10% per agent over a given time frame
  • Reduced settlement times for insurance claims
  • Reduced customer time in queue for higher satisfaction
  • Develop a mobile appliance app to encourage purchase of product
  • Technical enhancement with store kiosk to improve customer experience
  • Reduced supply chain error rate and improved fulfillment time

A recent success in this regard was the presentation by the CIO of a fast-growing retail chain of an IT strategy for the next three years. It was full of business metrics and plans to use technology to improve the customer experience in the company's stores, in anticipation of increased revenue. There was a surprising lack of discussion about infrastructure and software projects, as the CIO had outsourced provision of the company's basic IT requirements and transformed the IT team to deliver results for the business.

Reporting and Motivation

The standard reporting process for business metrics should include a monthly or quarterly meeting of the client's business and IT managers and the service provider to review the metrics. These meetings and associated reports should address whether the metrics have been met, potential future problems and the expected business impact, which can be documented and monitored by all parties. These reviews should be of particular interest to business unit managers when they include forecasts of the potential impact of the client's service provider(s) in terms of progress toward meeting its business goals. All parties should be measured as they work together to meet delivery gates over the stipulated time period.

An effective dashboard that captures business metrics should include business data captured from key areas identified by business unit leaders. In Figure 3 the dashboard is reporting on the business metrics for radiology examinations. The ability of IT to maintain effective connectivity to these vital business machines is reflected in the dashboard metrics as indicated.

Figure 3. Example of an Effective Dashboard for Business Metrics
Figure 3.Example of an Effective Dashboard for Business Metrics
Source: ASG
 

Conclusions

Sourcing managers, business managers and IT managers have different demands, perspectives on IT services, and perceptions of what constitutes quality IT services. Each area has a unique perspective that dictates the measures that should be present in a dashboard.

Sourcing managers need to ensure that the metrics and dashboards selected do a good job of representing the strategic objectives of outsourcing deals. If the objective is simply to deliver IT services more efficiently year over year, then technical and process metrics will suffice. But if the focus is business operational efficiency, they should combine IT technical and IT process views with specific service provider management metrics to measure the services provided. If the objectives are business-oriented and the services need to be represented by their impact on business metrics, they should ensure the dashboard reflects these business-driven metrics as well.

Sourcing managers should use metrics and dashboards that will enable effective management of a service provider's performance. They should not waste time defining business metrics to manage a service provider if it is only expected to deliver, and only measured on, more efficient delivery of existing services. They should also find out whether their company's business managers have an interest in the IT services being delivered, so that they can meet their needs via an effective dashboard.

Gartner Group

Escrever um comentário (0 Comentários)