Responsabilidades: Projetar, construir e manter pipelines de dados (ETL/ELT) robustos e escaláveis utilizando Python, SQL e Spark; Desenvolver e otimizar arquiteturas de Data Lake, Data Warehouse e Lakehouse; Implementar práticas de monitoramento, testes automatizados de dados e garantir a conformidade com a LGPD; Liderar revisões de código (Code Reviews), disseminar boas práticas de engenharia de software (Clean Code, CI/CD) e mentorear membros menos experientes do time; Trabalhar próximo a Cientistas de Dados, Analistas e Stakeholders de negócio para entender as necessidades de dados e traduzi-las em soluções técnicas. Requisitos: Superior completo em Sistemas de Informação, Ciências da Computação e Engenharia da Computação; Mínimo de 06 anos atuando como Engenheiro de Dados. Conhecimentos e Habilidades: Linguagens: Domínio avançado de Python e SQL (complexo). Big Data & Processamento: Experiência sólida com Apache Spark ou tecnologias similares de processamento distribuído. Nuvem: Experiência profunda em pelo menos um provedor de nuvem (AWS, GCP ou Azure).Preferencialmente Snowflake. Orquestração: Vivência com ferramentas de orquestração de workflows (ex: Airflow, Prefect ou Dagster). Modelagem de Dados: Conhecimento em técnicas de modelagem (Star Schema, Snowflake, Data Vault). DevOps para Dados: Familiaridade com Docker, Terraform (IaC) e esteiras de CI/CD. Benefícios: -. Carteirinha do SESC -. Apoio psicossocial -. TotalPass -. Desconto em universidades -. Desconto em farmácias -. Vale refeição -. Assistência médica -. Seguro de vida -. Vale transporte -. Vale alimentação -. Assistência odontológica
Número de vagas: 1
Tipo de contrato e Jornada: Efetivo – CLT - Período Integral
Área Profissional: Especialista em Informática, TI, Telecomunicações - TI