RestAPI

Colete os dados através de requisição HTTP Rest

📘

Status do conector: Alpha

Recomendamos que o time de suporte da Dadosfera seja consultado para entendimento se os dados da sua API podem ser coletados através deste conector. Por ser um conector com Status Alpha, ele funciona apenas em casos específicos.

Funcionalidades

FuncionalidadeSuportadoNotas
Autenticação via HeaderSim
PaginaçãoSim
Coleta Full LoadSim
Coleta IncrementalSim

Guia rápido

Para iniciar a criação de uma Pipeline, basta ir no módulo Coletar, "Pipelines" aperte em "Nova Pipeline".

Escolha a fonte de dados

Utilize uma fonte já cadastrada ou cadastre uma nova

Parâmetros para conexão (cadastro da fonte)

O método de autenticação é via Header, necessário caso sua API seja privada. Caso seja pública, não é necessário fornecer o Header.

Nome do campoDescrição
APIDefina se a API coletada é privada ou pública
Headers (Opcional)Composto por Chave e Valor, contêm a parte sensível da autenticação, a ser cadastrado dependendo das configurações da sua API. Podem ser cadastrados inúmeros Headers, e todos os valores aqui cadastrados serão armazenados como um segredo.
**Exemplo de Header**
Chave: "Basic"
Valor: "YWlyZmxvdzptaJLgbG96"

Informações da pipeline

Atribua o nome e uma breve descrição para sua Pipeline.

Parâmetros para configurações da pipeline

Etapa 1: URL

Nome do campoDescriçãoExemplo
API URLBase URL ou Endpoint da APIhttps://my-api.com

Etapa 2 - Método de replicação

Selecione se a coleta será full table (ou seja, toda vez que a pipeline rodar, todos os dados serão coletados novamente) ou incremental. No caso da replicação incremental, o campo Chave primária (inserido na etapa 5) será utilizado como base para definir a partir de qual registro cada nova coleta irá trazer os dados

Etapa 3 - Headers Adicionais (Opcional)

Nome do campoDescrição
Headers Adicionais (Opcional)Composto por Chave e Valor, podem ser cadastrados inúmeros Headers adicionais, que serão mesclados com os Headers do Stream

Etapa 4 - Paginação (Opcional)

Nome do campoDescrição
Tamanho da página (Opcional)Campo numérico igual ou maior que 1

Exemplo de Paginação suportada:

Existem muitos modelos e possibilidades de tratar paginações em Rest APIs, com isso a paginação atual que o conector suporta é no estilo que contenha os seguintes campos de controle:

  • offset: indica qual a página atual do processo de consulta dos dados.
  • limit: indica o tamanho de cada página, ou seja, número de registros que cada página retornará como resultado.
  • total: a quantidade de registros ao todo que serão consultados e paginados.

A resposta esperada pelo conector para realizar a paginação corretamento contém o seguinte modelo:

{
...

  "pagination": {
    "total": 120,
    "limit": 20,
    "offset": 20
  },

...
}

O indicador pagination agrupa os campos de controle de paginação que foram explicados anteriormente.

Na configuração do conector na interface da Dadosfera, é necessário apenas informar o tamanho que será considerado em cada página, ou seja, o limit.

Caso a necessidade de paginação seja diferente dos modelos suportados atualmente, entre em contato com o nosso suporte para analisarmos uma solução para realização da coleta.

Etapa 5 - Stream

Lista de objetos contendo a configuração necessária para cada Stream. É possível cadastrar apenas 1 Stream por pipeline.

Nome do campoDescriçãoExemplo
Nome (obrigatório)Nome do Streammeu_stream
Chave primária (obrigatório)Pode ser cadastrado mais de uma chave por Streamstream_id
Path (opcional)Caminho a ser appended na API URL/api/v1/stream
Caminho da resposta (opcional)Representa o caminho na resposta de solicitações que contém os registros a serem processados$.stream[*]
Número de registros para inferência do SchemaNúmero de registros usados para inferir o esquema do Stream. O padrão é 50.50
Parâmetros (opcional)Fornecem os parâmetros em um método request.get. Os parâmetros de nível de fluxo serão mesclados com os parâmetros de nível superior com os parâmetros de nível de fluxo substituindo os parâmetros de nível superior com a mesma chave

Clique em "Salvar e Continuar".

Frequência

  • Por último, configure a frequência desejada para que sua pipeline rode. É possível escolher dentre as opções apresentadas ou inserir uma frequência customizada através de uma expressão cron. Para saber mais, acesse.

📘

  • O fuso horário padrão utilizado na frequência é o UTC.

  • Todos os métodos de frequência definem quando as extrações serão iniciadas. Eles não controlam por quanto tempo o trabalho de replicação será executado ou quando os dados estarão efetivamente no destino.

Pronto! Agora basta aguardar a coleta ser feita no horário e dia agendado.

Caso queira executar a pipeline imediatamente, é possível executá-la manualmente em até 30 segundos após a criação da pipeline. Vá em "Pipelines", "Lista" e "Sincronizar Pipeline".

Após alguns minutos, sua pipeline estará catalogada na aba de exploração como um Data Asset.

É possível também consultar na lista de pipelines os detalhes da pipeline, como: resumo, lista de entidades e colunas coletadas, histórico de execução e de micro-transformação, em "Ver pipeline".