Você será responsável por projetar, construir e implementar o Data Lake do Lance! do zero, garantindo uma infraestrutura de dados robusta, escalável e governada. Seu trabalho permitirá que todas as áreas de negócio gerem seus dashboards e extraiam insights estratégicos com total confiança e agilidade. PRINCIPAIS DEVERES E RESPONSABILIDADES Arquitetura de Dados: Projetar e evoluir a arquitetura do nosso Data Lake, Data Warehouse e Data Marts, definindo as melhores práticas e tecnologias. Desenvolver modelos de dados eficientes e escaláveis para atender às necessidades de analytics e business intelligence. Definir e implementar políticas de governança de dados, incluindo qualidade, segurança, privacidade (LGPD/GDPR) e dicionário de dados. Engenharia de Dados: Construir, testar e otimizar pipelines robustas de ingestão (ETL/ELT) de dados de diversas fontes (bancos de dados transacionais, APIs, arquivos, etc.). Garantir a qualidade, consistência e disponibilidade dos dados em todas as camadas da plataforma. Implementar e gerenciar infraestrutura de dados em ambiente de nuvem (Ex: AWS, Azure, GCP – especifique se houver preferência). Automatizar processos de dados, monitoramento e alertas para garantir a estabilidade e performance da plataforma. Estratégia e Colaboração: Trabalhar em estreita colaboração com as áreas de negócio para entender suas necessidades de dados e traduzi-las em soluções técnicas. Avaliar e recomendar novas tecnologias e ferramentas para aprimorar nossa capacidade de dados. Ser o ponto focal técnico para todas as iniciativas de dados na empresa, construindo as bases para um futuro time de dados. Evangelizar a cultura data-driven na empresa e auxiliar na mentoria de futuros membros do time. REQUISITOS Superior Completo: Engenharias, Ciências da Computação, Informática, e áreas correlatas. Experiência de 3 até 5 anos. Inglês Técnico (Leitura e escrita). Experiência comprovada no design e implementação de arquiteturas de dados (Data Lakes, Data Warehouses). Proficiência em engenharia de dados, incluindo construção e manutenção de pipelines ETL/ELT. Domínio de SQL avançado e pelo menos uma linguagem de programação para manipulação e processamento de dados (Python é preferencial). Experiência com plataformas de nuvem (AWS, Azure ou GCP) e seus serviços de dados (Ex: S3, Glue, Athena, Redshift no AWS; Data Lake Storage, Data Factory, Synapse no Azure; GCS, Dataflow, BigQuery no GCP). Sólidos conhecimentos em governança de dados, qualidade de dados e segurança. Capacidade de trabalhar de forma autônoma, propor soluções e liderar projetos desde a concepção até a entrega. Excelente comunicação e habilidades interpessoais para interagir com stakeholders técnicos e não técnicos. Mentalidade de "ownership" e paixão por construir coisas do zero. CONHECIMENTOS NECESSÁRIOS Conhecimento em ferramentas de Business Intelligence (Ex: Power BI, Tableau, Looker, Qlik Sense). Ferramentas de orquestração de dados (Ex: Apache Airflow, Prefect ou Dagster). Domínio avançado de SQL e Python (com foco em Spark/PySpark para processamento de dados) DESEJÁVEL Experiência em ambientes de startup ou empresas em rápido crescimento. Conhecimento em metodologias ágeis. Conhecimento em ferramentas de modelagem como dbt (Data Build Tool). Benefícios: -. Sesc -. VT -. VA (flexível para alimentação e refeição) -. Plano Odontológico (Amil) para titular e dependentes, sem desconto -. Seguro de Vida Plano de Saúde (SulAmérica) para titular e dependentes, sem desconto -. Gympass
Número de vagas: 1
Tipo de contrato e Jornada: Efetivo – CLT - Período Integral
Área Profissional: Especialista em Informática, TI, Telecomunicações - Processamento de Dados