Voltar para vagas
Novo

PESSOA ENGENHEIRA DE DADOS SENIOR (Data Engineering - Big Data)

Remoto

Sobre a oportunidade: 


Transforme dados em impacto real. Você fará parte do time de Plataforma de Dados e vai habilitar áreas de Analytics e Negócio a tomar decisões com velocidade e confiança. Procuramos alguém com forte base técnica, autonomia e vontade de elevar o padrão da engenharia de dados em escala. Aqui, qualidade de dados e segurança andam junto com velocidade e automação.

O que você vai fazer

  • Atuar como ponto de referência técnico no time de Plataforma de Dados.
  • Traduzir necessidades de negócio em requisitos técnicos claros.
  • Planejar, desenvolver, revisar código e implementar soluções de dados.
  • Realizar autogestão, comunicando progresso e mudanças com transparência.
  • Colaborar com o time, difundindo boas práticas e conhecimento.
  • Gerenciar múltiplas prioridades, garantindo a qualidade das entregas.
  • Documentar infraestrutura, frameworks e soluções.
  • Diagnosticar falhas e incidentes em arquitetura Data Mesh.
  • Coletar requisitos e desenhar arquiteturas para integrações com o Data Lake.
  • Desenvolver e manter frameworks de ingestão e processamento (relacionais, NoSQL, arquivos, APIs).
  • Construir soluções escaláveis com Spark sob Glue e EMR, orquestradas com Airflow.
  • Automatizar processos para simplificar o consumo e o compartilhamento de dados.
  • Evoluir frameworks existentes e provisionar infraestrutura com Terraform.
  • Atender demandas operacionais e evolutivas do time de Plataforma.
  • Dividir o foco entre desenvolvimento de sprint e suporte (ITIL) níveis 2 e 3.

Requisitos obrigatórios

  • Práticas e conceitos de gestão de dados: Data Mesh, Data Lake, Medallion.
  • Domínio de Python, PySpark, SQL, dbt e Terraform.
  • Experiência com bancos relacionais (SQL Server, Sybase), NoSQL (MongoDB), APIs de mercado e arquivos.
  • Conhecimento de formatos Parquet e Iceberg.
  • Vivência em AWS: Glue, Athena, EMR, Lake Formation, DataZone, MWAA, S3, Lambda, EventBridge, DynamoDB, CloudWatch, IAM e correlatos.
  • Ferramentas de DevOps e Observabilidade: Azure DevOps, Datadog, pipelines, permissões, packages, logs e métricas.
  • Atuação com metodologias ágeis (Scrum, Kanban, SAFe, Agile).
  • Vivência na stack de dados em GCP.

Diferenciais

  • Experiência em ambientes de alta complexidade e escala.
  • Certificações AWS.
  • Projetos de automação de processos de dados.
  • Conhecimento em governança de dados e segurança em cloud.

Soft skills que valorizamos

  • Proatividade e autogestão.
  • Comunicação clara entre áreas técnicas e de negócio.
  • Colaboração e compartilhamento de conhecimento.
  • Organização e foco em resultados.
  • Conforto para lidar com múltiplas demandas e prioridades.

Como trabalhamos

  • Cultura orientada a dados, qualidade e segurança por padrão.
  • Decisões com contexto e foco no cliente interno.
  • Melhoria contínua, com revisões de código, boas práticas e automação.

 

O que acontece após minha aplicação na vaga interna?

Confirmada sua candidatura e analisado que seu perfil faz sentido para a posição escolhida, comunicaremos via e-mail a liderança e BP imediatos sobre sua aplicação em seleção interna.

Quer entender mais sobre os detalhes, acesse a página de Vagas Internas na Zupnet.

 

 

#LI-DNI #LI-DNP

 

Crie um alerta de vaga

Tem interesse em construir sua carreira na Vagas Internas? Receba oportunidades futuras enviadas diretamente para seu e-mail.

Candidatar a esta vaga

*

indica um campo obrigatório

Telefone
Currículo

Tipos de arquivos aceitos: pdf, doc, docx, txt, rtf

Carta de apresentação

Tipos de arquivos aceitos: pdf, doc, docx, txt, rtf