Pular para o conteúdo principal

Pessoa Coordenadora de Engenharia de Dados

Descrição da vaga

Sobre a AlmapBBDO

QUEM SOMOS!

#1 Agência Global da Década - Cannes Lions. 

Somos uma potência de criatividade e negócios que se reinventa todos os dias. 

Acreditamos que a criatividade é protagonista na geração de valor para as marcas, no crescimento dos negócios dos clientes e, não menos importante, na transformação das pessoas. Porque as pessoas são o centro da cultura da agência.

Aqui na AlmapBBDO estimulamos um ambiente cada vez mais plural que permita trocas e aprendizados. Convidamos pessoas negras, LGBTQIAPN+, com deficiência, mulheres e vindas de diferentes níveis socioeconômicos, regiões e universidades do país a fazer parte do nosso time. 

Este é o nosso horizonte definitivo, visto por todas as equipes de nossa agência. E é assim que construímos, dia após dia, um ambiente diverso e uma grande ideia chamada AlmapBBDO.

Venha fazer parte do nosso time!

Responsabilidades e atribuições

DESCRIÇÃO DAS PRINCIPAIS RESPONSABILIDADES:

Gestão e Supervisão:

  • Revisar código, arquitetura de pipelines e implementações de dados da equipe
  • Apoiar o Gerente na aprovação de tarefas, validando qualidade técnica e alinhamento com requisitos
  • Conduzir code reviews estruturados, fornecendo feedback construtivo
  • Mentorizar e desenvolver técnicamente membros da equipe
  • Identificar e documentar lições aprendidas e melhores práticas
  • Manter comunicação clara com stakeholders sobre o status técnico

Pipelines e Orquestração de Dados:

  • Arquitetar e otimizar pipelines de dados em múltiplas plataformas (GCP, Databricks, Microsoft Fabric)
  • Apoiar na criação e manutenção de fluxos de trabalho complexos e escaláveis
  • Implementar orquestração com Google Cloud Composer, Airflow, Databricks Workflows e Data Factory
  • Garantir idempotência, resiliência e tratamento de erros em pipelines
  • Otimizar performance e reduzir latência de processamento
  • Implementar processamento em tempo real e batch conforme necessidade

Plataformas Cloud e Infraestrutura:

Google Cloud Platform (GCP):

  • BigQuery: design de tabelas, otimização de queries, particionamento e clustering
  • Dataflow: pipelines Apache Beam em escala
  • Cloud Composer: orquestração de workflows
  • Cloud Storage, Pub/Sub, Bigtable
  • VPCs, Firewalls e segurança em GCP
  • IAM e gerenciamento de identidades

Databricks:

  • Arquitetura com Delta Lake e Unity Catalog
  • Otimização de Spark SQL e jobs Databricks
  • Integração com repositórios Git (MLflow, DLT)
  • Segurança, RBAC e governança no Databricks
  • Managed infrastructure e clusters

Microsoft Fabric:

  • Synapse Analytics e Data Factory
  • Power BI integrado com ambientes de dados
  • Integração com Azure ecosystem
  • Data Warehouse e Lakehouse patterns

Infraestrutura e Operações Cloud:

  • Projetar, configurar e manter ambientes cloud (Dev, Staging, Produção)
  • Gerenciar VPCs, subnets, firewalls e security groups
  • Implementar IAM, autenticação e autorização (RBAC, ACLs)
  • Gerenciar secrets, chaves de acesso e compliance de segurança
  • Containerização com Docker e orquestração com Kubernetes
  • Implementar CI/CD pipelines para automação de deployments
  • Monitoramento, logging e alertas (Cloud Logging, Datadog, Prometheus)
  • FinOps: otimização de custos em ambientes cloud
  • Backup, disaster recovery e business continuity

Qualidade e Governança de Dados:

  • Implementar e manter SLAs de qualidade de dados
  • Validação de dados, schema evolution e data profiling
  • Documentar data lineage e relacionamentos
  • Implementar governança de dados (catálogo, metadados)
  • Conformidade com LGPD, GDPR, SOC2 e outras regulamentações
  • Auditoria e rastreabilidade de acesso aos dados

Arquitetura de Dados:

  • Projetar data lakes e data warehouses escaláveis
  • Definir estratégias de particionamento e indexação
  • Implementar padrões de arquitetura (medallion, star schema, etc.)
  • Avaliar trade-offs entre diferentes arquiteturas
  • Documentar decisões arquiteturais e manter arquitetura atualizada

Performance e Otimização:

  • Identificar gargalos em pipelines e infraestrutura
  • Implementar cache, índices e estratégias de compressão
  • Otimizar queries em BigQuery, Spark e Synapse
  • Monitorar e alertar sobre degradação de performance
  • Análise de custos e otimização de recurso de computação


Requisitos e qualificações

QUALIFICAÇÕES DESEJÁVEIS:

FORMAÇÃO:

  • Superior Completo em Engenharia, Ciência da Computação, Sistemas de Informação ou afins
  • Especialização, certificações ou cursos avançados em arquitetura de dados, cloud computing ou big data (desejável)

CONHECIMENTOS TÉCNICOS OBRIGATÓRIOS:

Programação e Linguagens:

  • Python avançado para processamento, transformação e orquestração de dados
  • SQL avançado: stored procedures, window functions, otimização de queries
  • Conhecimento em pelo menos uma linguagem adicional (Java, Scala, Go)

Plataformas Cloud (essencial ter experiência em ao menos uma):

  • Google Cloud Platform (GCP): BigQuery, Dataflow, Cloud Composer, Cloud Storage, Pub/Sub, IAM
  • Databricks: Delta Lake, Spark SQL, Unity Catalog, Databricks Workflows
  • Microsoft Fabric: Synapse Analytics, Data Factory, Power BI integrado

Infraestrutura Cloud:

  • Redes cloud: VPCs, subnets, firewalls, load balancers
  • IAM e segurança: gerenciamento de identidades, RBAC, secrets management
  • Containerização: Docker e orquestração com Kubernetes
  • CI/CD e automação de deployments
  • Monitoramento, logging e observabilidade

Engenharia de Dados:

  • ETL/ELT: design e implementação de pipelines robustos
  • Data warehousing e data lakes
  • Processamento em tempo real e batch
  • Versionamento de código: Git, GitHub/GitLab
  • Orquestração: Airflow, Dataflow, Cloud Composer, Databricks Workflows
  • Apache Spark e distributed computing

Qualidade e Governança:

  • Data quality frameworks e validação
  • Governança de dados e data cataloging
  • Compliance: LGPD, GDPR, SOC2
  • Data lineage e metadata management

DIFERENCIAIS:

  • Experiência com múltiplas plataformas cloud (GCP + Databricks + Microsoft Fabric)
  • Certificações cloud (GCP Professional Data Engineer, Databricks Certified, Azure Data Engineer)
  • Experiência com streaming de dados (Kafka, Pub/Sub, Kinesis)
  • Machine Learning Ops (MLflow, feature stores)
  • Experiência em FinOps e otimização de custos cloud
  • Conhecimento de GraphQL e APIs REST avançadas
  • Experiência em ambientes híbridos (on-premise + cloud)
  • Contribuições em projetos open-source de dados (Apache Spark, Airflow, dbt)
  • Experiência com Infrastructure as Code (Terraform, CloudFormation, Bicep)
  • Liderança técnica comprovada e mentoria de equipes

EXPERIÊNCIA PROFISSIONAL:

  • Mínimo de 3-4 anos em engenharia de dados ou posição similar
  • Mínimo de 2+ anos com plataformas cloud (GCP, Databricks, Microsoft Azure/Fabric)
  • Comprovada experiência em liderança técnica, code review e mentoria
  • Experiência em arquitetura e design de soluções de dados
  • Background em múltiplos segmentos/indústrias (marketing = diferencial)

COMPETÊNCIAS COMPORTAMENTAIS:

  • Liderança técnica e capacidade de mentorizar
  • Forte comunicação técnica e não-técnica
  • Pensamento estratégico e visão de longo prazo
  • Proatividade e capacidade de resolução de problemas
  • Flexibilidade e adaptabilidade a novas tecnologias
  • Trabalho em equipe e colaboração
  • Excelente atenção a detalhes e qualidade
  • Comprometimento com boas práticas e padronização
  • Capacidade de tomar decisões em ambientes de incerteza


EXPECTATIVAS DE DESEMPENHO:

  • Redução de bugs/issues em produção relacionados a dados
  • Desenvolvimento técnico comprovável da equipe
  • Manutenção de SLAs de qualidade e performance de dados
  • Contribuição ativa na evolução arquitetural da plataforma
  • Participação em roadmap técnico com o Gerente
  • Documentação clara e atualizada dos processos

Informações adicionais

Como é a área de dados da Almap:

Atualmente somos cerca de 70 pessoas, em times segmentados por diversas especialidades: Data Solutions, Data Analytics, Engenharia de Dados, Data Science, Media Research e Accountability


Temos níveis hierárquicos bem definidos com Head da área, Diretoria, Gerências, Coordenação, Analistas (SR, PL e JR) e Estagiários.

Acreditamos no diálogo e no compartilhamento de experiências e conhecimento, fazendo com que nossa gestão seja muito horizontal.


Nossa área tem um clima ótimo, trabalhamos de forma híbrida, remotamente a maior parte do tempo e eventualmente fazemos encontros presenciais para quem pode estar em São Paulo. Temos pessoas residentes em diversos Estados trabalhando conosco. Também fazemos encontros online quinzenalmente com toda a área para troca de experiências e conhecimento.

Etapas do processo

  1. Etapa 1: Cadastro
  2. Etapa 2: Entrevista RH
  3. Etapa 3: Entrevista Gestão
  4. Etapa 4: Contratação

Quem Somos!

#1 Agência Global da Década - Cannes Lions. 

 

Somos uma potência de criatividade e negócios que se reinventa todos os dias. Acreditamos que a criatividade é protagonista na geração de valor para as marcas, no crescimento dos negócios dos clientes e, não menos

importante, na transformação das pessoas. Porque as pessoas são o centro da cultura da agência.

Aqui na AlmapBBDO estimulamos um ambiente cada vez mais plural que permita trocas e aprendizados. Convidamos pessoas negras, LGBTQIAPN+, com deficiência, mulheres e vindas de diferentes níveis socioeconômicos, regiões e universidades do país a fazer parte do nosso time. 

Este é o nosso horizonte definitivo, visto por todas as equipes de nossa agência. E é assim que construímos, dia após dia, um ambiente diverso e uma grande ideia chamada AlmapBBDO.

Venha fazer parte do nosso time!