Pentaho Day 2017

#Pentahoday2017 #OSBI

"Falta apenas um dia para o #Pentahoday2017, o maior evento do mundo de Business Intelligence, Analytics e BIG DATA Open Source."

Alguns dos melhores profissionais da área estarão presentes neste evento, que acontece em Curitiba dias 11 e 12 de maio na Faculdade Positivo.

O consultor Sênior da e-Setorial Eduardo Carvalho estará presente, ministrando um mini curso com o título "Design Patterns para Tuning Pentaho com Ctools".

#pentahoday, #Pentahoday2017

Se você também é um entusiasta, participe!

www.pentahobrasil.com.br

Abaixo o tweet do criador das CTOOLS, o portugês Pedro Alves da Pentaho, nosso amigo e "guru" que, como sempre, marcará presença no evento.

Veja como foi a participaçao no evento anterior, em 2015, que também aconteceu na Faculdade Positivo.

Escrever um comentário (0 Comentários)

O estudo psicológico que deu a vitória a Trump

Donald Trump e o livro 1984, de George Orwell (Divulgação/Reuters)

"Com 70 curtidas, Kosinski sabe mais sobre um indivíduo do que seus amigos mais próximos. Com a análise de 150 curtidas, descobre mais do que seus familiares."

A campanha do bilionário analisou o comportamento de cada cidadão no Facebook para fazer propaganda política individualizada. E a privacidade, como fica?

Donald Trump, quando candidato a presidente, tinha uma estratégia de campanha espantosa para os puristas: quase não gastava com publicidade na televisão e esnobava especialistas em pesquisas de opinião. Ele fazia parecer que suas declarações de impacto eram fruto da sua compreensão profunda do que chama de “cidadãos esquecidos”.

A revista alemã Das Magazin, no entanto, parece ter encontrado a chave do marketing político de Trump: uma empresa britânica chamada Cambridge Analytica, especializada em colher e analisar dados pessoais na internet e em transformá-los em matéria prima para micro-publicidade online — ou seja, propaganda política individualizada. Alguém lembrou da distopia criada por George Orwell no livro 1984? É isso e muito mais.

Tudo começou com um estudante de psicologia polonês da Universidade Cambridge, na Inglaterra. Durante o seu doutorado em psicometria (a tentativa científica de medir a personalidade de uma pessoa), Michal Kosinski criou com um colega um app do Facebook que incentivava os usuários a responder a um questionário psicológico em troca de um “perfil” de personalidade. Milhões de pessoas responderam, e com base nesse material Kosinski desenvolveu um método que permite descobrir características individuais apenas com a análise das curtidas no Facebook. Com 70 curtidas, Kosinski sabe mais sobre um indivíduo do que seus amigos mais próximos. Com a análise de 150 curtidas, descobre mais do que seus familiares.

Em 2014, Aleksandr Kogan, um professor assistente de Cambridge, procurou Kosinski e lhe propôs participação num projeto muito bem pago para analisar o perfil de 10 milhões de americanos no Facebook. A empresa que fazia a oferta era especializada em eleições. Kosinski recusou a oferta e denunciou o colega para a direção da faculdade. Para ele, o uso do seu método em eleições era uma forma de manipulação. Aleksandr se mudou para Singapura. Kosinski foi lecionar na Universidade Stanford, na Califórnia.

Eis que, em novembro de 2015, Kosinski ouve falar de uma empresa que estava prestando serviços de análise de dados para a campanha pela saída da Inglaterra da União Europeia. Tratava-se da mesma empresa que o havia procurado um ano antes: Cambridge Analytica. Como ele temia, seu método estava sendo utilizado para manipular eleitores — e, como ficou claro em junho de 2016 com a vitória do voto pelo Brexit, com sucesso.

Em setembro de 2016, a Cambridge Analytica ganhou novo holofote em um congresso científico em Nova York. Um dos palestrantes, Alexander Nix, CEO da Cambridge Analytica, explicou na ocasião como estava cruzando dados pessoais de cidadãos americanos para usá-los na pré-campanha presidencial de Donald Trump. E fez uma alegação estarrecedora: por meio do cruzamento de dados comprados de diferentes fontes com o histórico de curtidas no Facebook, sua empresa conseguiu elaborar o psicograma completo de cada um dos adultos americanos — nada menos que 220 milhões de pessoas. Sua equipe era capaz de definir os gostos de consumo, as opiniões políticas, os hábitos e os traços culturais de cada cidadão do país com idade para votar.

Um exemplo de como esses dados foram utilizados ao longo da campanha: no dia do terceiro debate presidencial entre Trump e sua adversária Hillary Clinton, a equipe digital do republicano enviou 175.000 variações de anúncios publicitários online, cada um para grupos específicos de cidadãos. As diferenças entre esses anúncios eram sutis, mas desenhadas para atingir em cheio seus alvos, com o objetivo de sensibilizá-los segundo seus maiores medos, esperanças e preferências.

A Cambridge Analytica, segundo disse seu CEO aos autores da reportagem da Das Magazin, recebeu 15 milhões de dólares do comitê de Trump pelo serviço.

Esse uso político dos dados das redes sociais é eticamente condenável ou em nada se diferencia dos dilemas tradicionais do marketing político? Esse é um debate que está só começando.

fonte

Escrever um comentário (0 Comentários)

O poder dos Sistemas de Apoio à Decisão (SAD)

Também chamados de Decision Suport System (DSS), os Sistemas de Apoio à Decisão (SAD) se utilizam de uma série de conceitos, técnicas e ferramentas para transformar dados em informações úteis para auxiliar a tomada de decisões. Para a elaboração de um sistema deste tipo, normalmente muitos profissionais são envolvidos, principalmente nas áreas da Tecnologia da Informação e Comunicação (TIC) e de Negócios e, especificamente, nas áreas de Business Intelligence (BI), Business Analytics (BA), Data Mining, Machine Learning, Estatística, Banco de Dados, Infraestrutura de Software, Inteligência Competitiva, Marketing, Engenharia e Gestão do Conhecimento, entre outras. A interação de distintos perfis de profissionais garante, além da performance e segurança, que os pontos importantes para a instituição (Indicadores Chave - KPI) sejam definidos pelas áreas que têm o devido conhecimento, maximizando o sucesso dos projetos.

Cubo Analítico

Com todos os Indicadores Chave (KPI) definidos, todas as regras de negócio documentadas e a origem de todos os dados conhecida, se inicia o desenvolvimento do SAD. A primeira etapa consiste em ler os dados de todas as fontes definidas no projeto, integrando-os em um grande armazém de dados, o Data Warehouse (DW).

A partir daí vem a grande sacada do Business Intelligence: são criados os Cubos Analíticos, também chamados de Cubos Multidimensionais, um para cada fato a ser analisado e sem limite de quantidade de Dimensões.

Um único cubo deve ser capaz de oferecer, com muita agilidade, todas as informações que um gestor necessita sobre o fato que o cubo analisa. #Todas.

O exemplo ao lado é uma representação gráfica (gif) de um cubo de Movimentações Financeiras composto por 3 dimensões:

  • Tipo de Movimentação Financeira (o que);
  • Data (quando) e
  • Localidade (onde)

Cada uma das dimensões pode ser utilizada para filtrar os dados e selecionar apenas o período desejado. A porção em vermelho corresponde a seleção feita e no último quadro do gif percebemos o quadrado que indica a intersecção de todos os filtros, ou seja, a resposta desejada.

Filtros aplicados: Tipo de movimentação = Vendas, Data = Ano de 2017, Localidade = Estado de São Paulo.

Painéis Interativos

Agora que o cubo analítico é capaz de dar todas as respostas necessárias ao gestor, a próxima etapa é criar painéis interativos (dashboards) que permitam ao próprio usuário refinar suas consultas, simplesmente selecionando por exemplo o Ano e o Mês, sempre com a possibilidade de filtrar ainda mais os dados, clicando nos gráficos (de barras, pizza, etc.) e obtendo respostas precisas e praticamente automáticas, pois todas as técnicas e ferramentas utilizadas permitem que estes dados sejam pré-computados e de fácil acesso. Tendências e desvios do padrão nos dados da instituiçao são facilmente encontrados, visualmente, de forma clara e intuitiva, conforme alguns exemplos abaixo:

Caso Toyota

No final dos anos 90, a empresa enfrentou grandes problemas em sua cadeia de operações. O custo de armazenamento de carros se elevou e ela não estava mais conseguindo fornecer o produto a tempo para seus clientes. Utilizava computadores que geravam uma quantidade enorme de dados e relatórios que não eram utilizados estrategicamente porque nem sempre eram exatos e muitas vezes eram fornecidos tarde demais - o que atrasava a tomada de decisões.

Uma nova CEO foi contratada. Ela identificou algumas soluções: primeiro, a necessidade de um Data Warehouse - um repositório central de dados, organizado e de fácil acesso. Segundo, a necessidade de implementação de ferramentas de software para efetuar a manipulação desses dados. O novo sistema implantado infelizmente não funcionou de maneira correta: a entrada de dados históricos incluiam anos de erros humanos que não foram detectados, dados duplicados, inconsistentes e falta de importantes informações. Tudo isso gerou análises e conclusões precipitadas sobre o funcionamento da distribuidora.

Apenas em 1999 a empresa resolveu implantar uma plataforma de Business Intelligence. Em questão de dias o sistema apresentou bons resultados. Por exemplo, descobriram que a empresa era cobrada duas vezes por um envio especial por trem (um erro de US$ 800.000). Entre 2001 e 2005, o volume de carros negociados aumentou em 40%, o tempo de trânsito foi reduzido em 5%. Esses e vários outros  benefícios ajudaram a Toyota a alcançar as maiores margens de lucro no mercado automotivo desde 2003, e estão aumentando consistentemente a cada ano desde então. Além disso, um estudo realizado pela IDC Inc. em 2011, indicou que a instituição alcançou, naquele ano, um retorno de pelo menos 506% sobre o investimento em BI. Fonte

Pirâmede da Inteligencia

Esse é apenas um dos inúmeros casos que ilustram a eficiência dessas soluções capazes de integrar e interpretar Dados, transformando-os, de alguma forma, em Informação relevante ao seu negócio, possibilitando, com a devida análise, a criação de Conhecimento. Através da utilização e da gestão deste conhecimento nasce a Inteligência.

Conclusão

Mais de 15 anos passaram desde que a Toyota adotou o BI. Atualmente, gera-se mais de 2.5 quintilhões de bytes de dados diariamente no mundo, sendo que 90% dos existentes hoje foram criados nos últimos 2 anos. A tendência é que esse número cresça de uma forma cada vez mais rápida. 

Uma Solução de Apoio à Decisão não precisa custar milhões de dólares nem exigir a venda casada de equipamentos, treinamentos, consultorias e serviços. Pelo contrário, com software livre e com o respaldo de uma consultoria especializada pode-se atingir resultados excelentes e sustentáveis utilizando o equipamento já existente, com qualquer sistema operacional do mercado, podendo ser acessado desde celulares e computadores até mesmo em grandes painéis televisores. Isto tudo com toda a segurança e liberdade de quem tem todo o código fonte em seu poder.

E você, o que vai fazer com os seus dados?

Escrever um comentário (0 Comentários)

Já está em vigor a inclusão do nono dígito no número dos celulares de todo o Brasil

Para todas as regiões em que esta alteração ainda não tinha sido efetivada, as ligações feitas sem o nono dígito serão completadas somente até o fim deste ano.

A partir de 2017 todas as ligações para celulares precisarão do nono dígito.

Segundo a Anatel, até 31 de dezembro de 2016, serão alterados os números dos DDD 41, 42, 43, 44, 45 e 46 (estado do Paraná), 47, 48 e 49 (estado de Santa Catarina), 51, 53, 54 e 55 (estado do Rio Grande do Sul), 61 (Distrito Federal), 62 e 64 (estado do Goiás), 63 (estado do Tocantins), 65 e 66 (estado do Mato Grosso), 67 (estado do Mato Grosso do Sul), 68 (estado do Acre) e 69 (estado de Rondônia).

Sua empresa envia campanhas por SMS? Utiliza central telefônica para ligar e atender a clientes, usuários ou alunos? Se a resposta for sim para ao menos uma das duas perguntas, sem o devido cuidado, esta pequena modificação pode trazer impacto ao seu negócio.

Pensando neste cenário, a e-Setorial oferece serviço de tratamento e enriquecimento de dados, atuando diretamente no banco de dados do seu sistema de informação, elimininado assim a necessidade de que a sua equipe perca tempo criando processos de exportação, higienização e importação de planilhas. Nós resolvemos tudo isso sem impacto algum para o seu sistema, que não sairá do ar nem por um segundo.

Faça sua empresa atingir todas as metas. Entre em contato com a gente.

nono dígito dos celulares


Escrever um comentário (0 Comentários)

Seis mitos e equívocos a respeito do BI - Business Intelligence

É preciso rever atitudes frente à análise de dados e abandonar alguns conceitos ultrapassados

Quantas das nossas crenças são tão profundas que nunca pensaríamos em questioná-las? Na realidade, mais do que julgamos. Os seres humanos não são tão racionais como pensamos, e, de fato, não há tempo para pesquisar cada alegação que fazemos.

Temos o hábito de repetir o que os outros dizem e aceitar o que dizem como verdade. Algumas dessas premissas são verdadeiras, mas é claro que, em alguns casos, podemos estar sendo levados a acreditar em uma mentira.

Por exemplo, é um equívoco comum que a Grande Muralha da China é a única estrutura feita pelo homem visível do espaço; é possível também observar, a partir do espaço, as cidades e alguns edifícios claramente definidos. Da mesma forma, os Vikings são vulgarmente representados como tendo capacetes com chifres; no entanto, este detalhe da indumentária deste povo foi criado pelo compositor Wagner, na sua ópera The Ring Cycle.

Estes equívocos, infelizmente, não estão restritos a curiosidades interessantes. Mitos e equívocos podem ser encontrados também no mundo dos negócios, muito embora nos protegermos deles possa sair muito caro.

Diante das rápidas alterações na indústria de Business Intelligence (BI) nos últimos dez anos, muitas vezes tendemos acreditar em mitos no que diz respeito à análise de dados. Meu objetivo tentar desfazer alguns deles, assim como conceitos ultrapassados, de uma vez por todas.

Vejamos seis mitos sobre BI:

1 - Apenas os gestores responsáveis por decisões precisam de BI

Apesar de anos de esforço e de enorme investimento, o BI não chega às mãos de todos os responsáveis por processos de decisão. O uso de BI é muitas vezes limitado a um certo número de gestores com poder de decisão dentro de uma organização, e este tipo de ferramenta deve ser acessível a todos os tipos de colaboradores, uma vez que o processo de decisão é cada vez mais amplo dentro das organizações e empresas, e ao fato de todas as decisões precisarem de dados.

Curiosamente, este conceito remonta a estruturas hierárquicas antiquadas no século XIX – muito antes da existência do software. Quando implantado pela primeira vez, o BI utilizou estas estruturas, o que significava que o seu objetivo tinha a ver com auditoria e controle, e não com permitir que as pessoas tomassem melhores decisões através da análise.

Hoje em dia, e apesar do BI ter se tornado mais sofisticado, este pensamento ainda está em vigor, muitas vezes, o que significa que a maioria das pessoas não está extraindo benefícios das camadas extra de dados a que têm acesso.

2 - Uma boa ferramenta BI gera bons relatórios

Quase todos os projetos de BI começam com o objetivo louvável de desenvolver relatórios de gestão. Muitas vezes, relatórios financeiros. E, quase sempre,  é indicado ao departamento de TI o que a ferramenta de BI deve fazer. No entanto, o problema é que a informação que se obtém é estática e “fala” pouco ao usuário.

Isto significa que é quase impossível “interrogar” os dados e, no entanto, a capacidade de análise devia ser a característica chave de um bom sistema de BI. Os usuários  precisam ser capazes de interagir, questionar os dados e construir sistemas de BI que possam ajudar a explorar causas profundas, inter-relações, tendências e mudanças nos dados.

3 - O BI In-Memory resolve o problema da adoção

No mundo moderno, qualquer coisa que demore mais do que uma busca no Google para gerar uma resposta corre o risco de ser abandonada por seus usuários. No entanto, há mais na adoção do que a velocidade em si. Mesmo que sejam rápidos, os sistemas de BI podem tornar-se rígidos devido à falta de um poderoso back-end e ao tempo gasto pelos usuários na produção de relatórios ou visualizações. Resultado? O usuário pode deixar de querer usar os sistemas…

Para criar uma cultura de analítica, o software deve ser rápido, simples de usar e flexível o suficiente para permanecer relevante para o usuário.

4 - Não ter em casa as habilidades analíticas necessárias

Por que pagar analistas e cientistas de dados para interpretar informações? Os seres humanos têm capacidades analíticas naturais, incluindo o reconhecimento de padrões (distinguindo entre aglomerados e pontos individuais), detecção de alterações (notando algo diferente em uma sala) e categorização (detecção de relevância).

Em vez disso, as empresas precisam de um software que democratize a análise de dados para todos e use as habilidades analíticas inatas que todos temos. As organizações precisam democratizar a análise de dados e colocá-la diretamente nas mãos dos seus colaboradores para gerar melhores resultados.

5 - Precisamos de mais recursos visuais para ajudar as pessoas a “obterem” dados

É verdade que cerca de 60% do nosso processamento neural é dedicado a coisas que vemos e, portanto, as visualizações de dados são muito importantes. No entanto, uma imagem por si só não é suficiente. Algumas ferramentas têm visualizações bonitas, mas não permitem a navegação nos dados e, obviamente, esse fato é uma maldição, dadas as capacidades dos gadgets dos dias de hoje, usados por colaboradores/usuários que procuram cada vez mais informações na Internet, através de diversas aplicações.

É fundamental que os usuários possam interagir com as visualizações, para que possam compreender o seu significado e fazer novas descobertas. Olhar para um relatório limitado estática ou interativamente coloca um fim a este processo.

6 - Melhor acesso aos dados significa melhores decisões

Ter toda a informação do mundo não ajudou os banqueiros a evitar a crise financeira de 2009. O fato de os dados estarem lá não significa que eles estejam sendo usados de maneira correta.

A melhoria na capacidade de tomada de decisões requer prática e competência. Estas aptidões nascem do desenvolvimento de competências que ajudam os usuários a protegerem-se de situações inesperadas e de uma maior frequência de determinadas tarefas.

Malcolm Gladwell escreveu que levamos 10 mil horas para que possamos ser especialistas em qualquer atividade. Assim, também os usuários que trabalham com qualquer sistema de BI precisam continuar a praticar a análise de dados. Essa prática vai ajudá-los a tomar decisões mais inteligentes e a descobrir conceitos mais úteis.

Em 2016, as empresas procuram oportunidades de crescimento e é fundamental que não estejam restringidas pelo peso da crença em mitos. Elas precisam rever as suas atitudes frente à análise de dados e tomar medidas para se moverem na direção certa. Em última análise, tomar essas medidas pode melhorar as operações de negócios – que é o objetivo de qualquer empresa. E nesse fato tenho a certeza que podemos sempre acreditar.

fonte
Escrever um comentário (0 Comentários)

9 truques psicológicos que fazem você gastar mais em restaurantes

MENUS SÃO PENSADOS PARA TOTAL LUCRO DOS RESTAURANTES

Quer gastar menos quando come fora? Ou quer, ao menos, saber a razão de gastar tanto? Veja nossa lista. #Analytics

Sair para jantar é uma das coisas mais comuns – e legais – do nosso cotidiano. Mas, com a mesma frequência que vamos ao nosso restaurante preferido, somos vítimas de truques e peripécias dos donos de restaurantes, que contratam consultores para o desenvolvimento de cardápios mais atraentes e que nos fazem gastar mais.  Lógico, isso não quer dizer que o quilo nosso de todo os dias contrate especialistas - mas algumas dessas práticas, usadas por grandes restaurantes, acabaram se popularizando e se tornando comuns até nos estabelecimentos mais simples.  

Veja abaixo a nossa lista e fique por dentro destes jogos psicológicos

1 – Eles não usam símbolos monetários

De acordo com o estudo realizado pela Cornell University School of Hotel Administration, menus com símbolos relacionados ao dólar vendem menos do que cardápios sem “$” ou algo do tipo. Para a pesquisa, assim que o consumidor nota o símbolo, a lembrança remete ao fato de gastar dinheiro e isso faz com que ele aja com mais cuidado. Então colocar valores só com os algarismos e sem o R$ no cardápio é uma forma de diminuir a cautela com que interpretamos o preço do prato.

2 – Números quebrados são importantes

Os designers de menus afirmam que valores terminados em 9, como 9,99, tendem a signifcar valor e não qualidade. E, segundo algumas pesquisas, valores quebrados podem ser considerados “amigáveis - mas disso você já sabe desde a moda das lojas de R$1,99.

3 – Descrever a comida aumenta o número de vendas

Um meno descritivo sempre anima o consumidor, afirma pesquisa da Cornell University. Especificamente, menus com pratos explicados de maneira até levemente romântica (sabor frutado, textura delicada e suave, etc. etc.) vendem 27% a mais do que menus comuns, diz o resultado do estudo da Universidade de Illinois.

Para o engenheiro de menus Greg Rapp , esse tipo de cardápio “traz o máximo da sensação ao consumidor, aumentando as chances do cliente se sentir satisfeito após a refeição”. Outro fator que também pesa para a formulação dos menus é o uso de grandes marcas dentro dessa descrição (sobremesa feita com sorvete X, por exemplo).

4 - Eles ligam comida à família

Consumidores gostam quando nomes os nomes dos estabelecimentos têm ligações familiares. Com esse tipo de conexão com o cliente, a meta dos restaurantes é apelar para a nostalgia. Então desconfie quando você encontrar a "Macarronada da Mama" ou o "Filé do Tio".

5 – Restaurantes usam termos étnicos para parecerem mais autênticos

De acordo com o experimento realizado pela Oxford, um termo étnico ou geográfico pode atrair a atenção do consumidor para  o tipo de comida daquele local, evocando sabores e texturas. 

6 – Itens extremamente caros chamam a atenção para os mais baratos

De acordo com Greg Rapp, restaurantes usam artigos muito caros para destacar os baratos. A ideia é fazer com que você não compre o caro, mas crie razões para levar o “baratinho”, que nem sempre é tão barato quanto parece ao lado de um valor mais elevado.  De acordo com um artigo da New York Magazine, a única função de um prato com valor de três dígitos no cardápio é dar a impressão de que todo o resto é uma grande barganha - mesmo que não seja.

7 – Restaurantes oferecem dois tamanhos de porções para um mesmo produto

Essa é uma estratégia chamada bracketing, em que o consumidor não possui ideia do tamanho da porção menor, mas assume que o valor vale a pena. Porém, a intenção do restaurante é a de que o cliente realmente compre a menor, para isso inflacionam a porção maior.

8 – Eles analisam os nossos padrões de leitura

Os restaurantes analisam padrões chamados scanpaths - pontos onde as pessoas fixam os olhos para a leitura.

De acordo com um estudo coreano, um terço das pessoas está suscetível a pedir o que lhe chamou a atenção de primeira. Por isso, restaurantes colocam os itens mais caros no canto superior esquerdo, já que é o caminho natural tomado pela nossa vista. 

Essa estratégia também se dá em relação aos valores dos pratos. Colocando um primeiro item com maior valor, todos os outros poderão parecer ótimos preços, como explicamos no item 7.

9 – Eles criam um clima para gastar

De acordo com um estudo da Universidade de Leicester, tocar música clássica em um restaurante pode encorajar o cliente a gastar mais. No entanto, música pop faz com que pessoas gastem 10% a menos.

fonte
Escrever um comentário (0 Comentários)

IBGE publica Plano de Dados Abertos

Pesquisas, estatísticas e indicadores serão disponibilizados em formato aberto

Pesquisadores, professores universitários, estudantes, empresários, representantes de Organizações da Sociedade Civil e demais cidadãos serão beneficiados com a publicação de dados abertos pelo Instituto Brasileiro de Geografia e Estatística (IBGE). Todas as pesquisas, estatísticas e indicadores elaborados pelo instituto serão publicados em formato aberto. Divulgado na última semana, o calendário de disponibilização está no Plano de Dados Abertos (PDA) do IBGE para o próximo biênio.

“A missão do IBGE é retratar o Brasil com informações necessárias ao conhecimento de sua realidade e ao exercício da cidadania. Portanto, para o instituto é fundamental dar transparência aos dados que são produzidos”, explica Arnaldo Barreto, diretor substituto de Informática do IBGE. Para ele, a elaboração do PDA pelo órgão é um marco para a implantação de um instrumento de planejamento e coordenação de ações de divulgação de dados.

Dados e metadados do Cadastro Central de Empresas, do Censo Agropecuário, do Censo Demográfico e do Índice Nacional de Preços ao Consumidor Amplo (IPCA) são exemplos de pesquisas e indicadores que já foram disponibilizados em formato aberto pelo IBGE. Encontram-se também divulgados dados abertos da Contagem da População, da Classificação Nacional de Atividades Econômicas, Pesquisa Anual de Serviços e da Pesquisa das Características Étnico-raciais da População.

Segundo Barreto, a publicação de dados abertos para a sociedade é um ganho para a elaboração e desenvolvimento de ações governamentais. “A discussão de políticas públicas entre o cidadão e o governo fica mais madura, pois se baseia em fatos e dados oficiais, construídos com metodologias internacionalmente aceitas e coletadas de maneira transparente”, afirma o diretor substituto.

Dados Abertos

A divulgação do PDA pelo IBGE atende ao estabelecido pelo Decreto nº 8.777, de maio de 2016, que criou a Política de Dados Abertos da Administração Pública Federal (APF). Os dados são abertos quando podem ser tratados e trabalhados por pessoas e máquinas. Qualquer cidadão pode livremente usá-los, reutilizá-los e redistribuí-los, estando sujeito, no máximo, à exigência de creditar a sua autoria.

“De acordo com o decreto, todos os órgãos federais têm de elaborar o seu planejamento e a equipe de Dados Abertos do Ministério do Planejamento está à disposição para auxiliar os órgãos neste trabalho”, afirma Marcelo Pagotti, secretário de Tecnologia da Informação do Ministério do Planejamento, Desenvolvimento e Gestão (MP).

O Portal de Dados Abertos (dados.gov.br) conta atualmente com 1.122 conjuntos de dados em formato aberto.

fonte
Escrever um comentário (0 Comentários)