Data Engineer Sênior
Nosso Modo de Fazer no Time:
Transforme sua carreira com o iFood! Somos uma empresa brasileira de tecnologia referência na América Latina. Por meio de soluções inovadoras, conectamos milhares de restaurantes a milhões de consumidores diariamente com uma média de 100 milhões de pedidos mensais. Além do delivery de comida, também somos Mercado, Farmácia e Pet. Temos também o iFood Pago, nossa Fintech, que engloba o iFood Benefícios, o vale alimentação e refeição do iFood e o próprio iFood Pago, o banco do restaurante. Junte-se a nós e faça parte de uma equipe que está sempre à frente com tecnologia de ponta e inovação constante.
Seu Cardápio Diário:
- Projetar e evoluir a arquitetura de dados, assegurando governança, performance e escalabilidade.
- Desenvolver e manter pipelines de ingestão, transformação e disponibilização de dados (batch e streaming) com uso de Spark, Databricks, Delta Lake, Airflow/Temporal e APIs.
- Garantir a qualidade e consistência dos dados por meio de testes automatizados e validação de schemas.
- Criar e manter modelos dimensionais, data marts e camadas de consumo para analytics, produtos e machine learning.
- Colaborar com Data Scientists e Engenheiros de Plataforma para assegurar a reutilização e performance de pipelines e features em produção.
- Otimizar custos e desempenho de workloads no Databricks e no data lakehouse.
- Implementar práticas robustas de DataOps, incluindo CI/CD, monitoramento de jobs e automação de deploys.
- Colaborar com times de produto e engenharia para alinhar decisões técnicas e roadmaps de dados.
- Liderar revisões técnicas, mentorar engenheiros mais juniores e disseminar boas práticas de engenharia e arquitetura de dados.
Ingredientes Que Buscamos:
- Domínio de Python e SQL, com práticas sólidas de engenharia: testes automatizados, modularização e integração contínua (CI/CD).
- Experiência com processamento distribuído e pipelines de dados em larga escala utilizando Spark, Databricks, Delta Lake, Airflow, dbt ou similares.
- Conhecimento em arquiteturas de data lakehouse e integração com sistemas de origem via APIs, CDC, e streaming (Kinesis, Kafka, etc.).
- Vivência com DataOps e automação de deploys, incluindo monitoramento de jobs e controle de qualidade de dados.
- Conhecimento de modelagem de dados (OLAP/OLTP, dimensionais, camadas bronze–silver–gold) e governança de schemas.
- Familiaridade com infraestrutura e orquestração moderna (Docker, Kubernetes, Terraform, Temporal ou similares).
- Entendimento de arquitetura de sistemas distribuídos, performance e otimização de custos em cloud (AWS, Azure ou GCP).
- Boa comunicação, autonomia técnica e mentalidade de produto, colaborando efetivamente com Data Scientists, Engenheiros e PMs.
Para Realçar o Sabor:
- Habilidade para liderar projetos e comunicar-se de forma eficaz entre diferentes áreas.
- Capacidade de lidar com desafios técnicos e mentalidade voltada para resultados.
- Experiência em otimização de custos e desempenho em ambientes de dados complexos.
- Inglês avançado para colaboração em um ambiente global.
Buscamos uma pessoa apaixonada por inovação e tecnologia, que esteja sempre em busca de novos aprendizados e que goste de desafios. Se você se identifica com este perfil, adoraríamos conhecer você!
Candidatar a esta vaga
*
indica um campo obrigatório