Descrição:Funções primárias: desenvolvimento e design de banco de dados, integração de dados e suporte em nuvem, armazenamento de dados.Entregáveis primários: relatórios baseados em SQL, integração de dados e pipelines usando serviços ETL, procedimentos e funções armazenados SQL/Javascript/Python, scripts e documentação de suporte.
Atividades:- Criação ponta a ponta de relatórios em plataformas de Data Warehouse (Snowflake) incluindo ingestão de dados, design e criação de banco de dados e objetos em nuvem, testes (para qualidade e desempenho) e implantação- Suporte de modelos existentes em Data Warehouse- Design e suporte a pipelines de dados usando NiFi, Fivetran, Databricks, Snowpipe etc.- Criação de scripts – para manipular e transformar dados quando exigido pelos pipelines de ingestão de dados- Criação de pipelines CI/CD para conduzir o processo de gerenciamento de mudanças dos objetos Snowflake e seus requisitos de ingestão de dados relacionados- Fornecer suporte à equipe de negócios em atividades de teste e validação de dados.
Requisitos:- Conhecimento avançado em SQL incluindo ajuste de desempenho.- Habilidades para construir pipelines de dados robustos e complexos de/para Snowflake DW- Conhecimento de linguagens de programação Python e Javascript e capacidade de escrever e suportar código usando-as- Conhecimento de ferramentas ETL como Qlik, Fivetran, NiFi, ADF e etc.para construir e executar pipelines de CI/CD para diferentes recursos em nossa pilha de tecnologia- Segurança básica de dados e gerenciamento de acessoSnowflake, script e modelagem SQL, Azure Data Factory (ADF), compreensão dos recursos do Azure em geral, Python, Javascript básico, DevOps e Git, GitHub Actions, Databricks, Enterprise Data Warehousing (compreensão conceitual).
Ingles avançado para conversação.
É bom ter: ferramentas ETL (Qlik, Fivetran, etc.), princípios de código limpo, conhecimento básico de segurança e controle
Contratação
PJ ou cooperado100% remoto, segunda a sexta feira