Raspagem de dados com Node.js

Raspagem de dados, ou Web scraping, é uma técnica de extração de dados onde é possível recuperar informações de websites. Existem diversas maneiras de fazer raspagem de dados: pode ser feito manualmente copiando e colando, utilizando uma ferramenta online, usando uma extensão para o navegador Google Chrome (como o Webscrapper), etc. Neste artigo será mostrado

Raspagem de dados, ou Web scraping, é uma técnica de extração de dados onde é possível recuperar informações de websites.

Existem diversas maneiras de fazer raspagem de dados: pode ser feito manualmente copiando e colando, utilizando uma ferramenta online, usando uma extensão para o navegador Google Chrome (como o Webscrapper), etc. Neste artigo será mostrado um passo-a-passo de como fazer raspagem de dados no site Portal da Transparência. O site Portal da Transparência é mantido pelo Tribunal de Contas da União, órgão que fiscaliza as contas do governo. Informações de gastos com aquisição e contratação de obras e compras governamentais, diárias pagas, cartões de pagamento do Governo Federal, entre outras são exemplos que podem ser encontrado.

Para fazer a aplicação raspar dados, usaremos as seguintes ferramentas:

  • Node.js
  • Express
  • Request – Para fazer chamadas HTTP
  • Cheerio – Para acessar o DOM externo e extrair os dados

Configuração

Primeiro devemos configurar as dependências necessárias no arquivo package.json:

Com o arquivo package.json pronto, é só instalar as dependências com o comando npm install.

Agora que as dependências foram instaladas, iremos definir o que deve ser criado. Neste exemplo, iremos fazer uma requisição na página de Gastos Diretos por Órgão Executor. Nesta página teremos acesso aos gastos que o governo teve em 2015, separado por Ministério. Uma vez que tivermos acesso a estas informações, podemos escolher o que salvar em um arquivo JSON no computador.

A aplicação

O resumo da raspagem de dados funcionará da seguinte forma:

  1. Nossa app vai fazer uma requisição a URL que iremos raspar
  2. A requisição irá capturar o HTML da página e fornecer ele para o nosso server
  3. Pelo server, iremos acessar o DOM e extrair as informações específicas (no caso a tabela de gastos)
  4. Em seguida, nossa app vai criar um arquivo .json com os dados extraídos e salvar na pasta do projeto.

Toda a a estrutura lógica ficará em um arquivo server.js.

Fazendo a requisição

A requisição externa deve ser realizada dentro do escopo do método app.get() através da função request(). O método request deve receber dois parâmetros: a url e o callback. No parâmetro url colocamos a página do Portal da Transparência e no callback iremos declarar três novos parâmetros: error, response e o html.

Acessando o DOM da URL externa

Inspecionamos o código-fonte para ver o seletor da tabela que iremos fazer a raspagem. O cheerio é uma biblioteca que nos dá permissão de manipular facilmente o DOM dos elementos da url. Se você já utilizou jQuery, está familiarizado com a estrutura dos seletores. Depois de encontrar o seletor, iremos manipular os elementos filhos da div#listagem, no caso a tabela.

Formatando e Extraindo

Nós armazenamos os dados extraídos em uma variável chamada resultado. Agora é necessário colocar as mãos na API do NodeJS chamada Fyle System. Esta biblioteca nos dá acesso pra várias coisas legais, dentre elas a possibilidade de escrever arquivos. No método writeFile() passaremos dois parâmetros: o arquivo .json que será gerado e o objeto que será exportado neste arquivo.

Assim, quando executarmos o comando node server.js no terminal a nossa aplicação irá fazer a raspagem na URL e gerar o arquivo resultado.json.

Validando

É sempre importante validar o que você está fazendo. Podemos verificar se o nosso arquivo .json é válido com a ferramenta JSONLint:

Considerações finais

Vimos neste exemplo que o processo de raspagem de dados pode ser bem simples, porém é uma técnica poderosa que aliada a outros serviços é possível construir ótimas aplicações. O código completo utilizado como exemplo neste post está versionado no GitHub do autor.

Porquê escolhi um site do governo

Decidi escolher um site do governo porquê trata-se de um Portal com todas informações disponíveis ao cidadão, que por uma série de fatores acaba passando despercebido. É importante evidenciar que o Governo incentiva o manuseio de suas informações com dados abertos. Para se ter uma noção sobre esta iniciativa, existem diversos projetos que trabalham com os dados governamentais, através de raspagem e bots automatizadores de tarefas. O DataBR, por exemplo, é um conjunto de API’s que possibilita desenvolvedores, jornalistas, analistas e demais interessados, trabalhar com dados governamentais brasileiros.

Espero que tenha aproveitado a leitura.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *