Pessoa Coordenadora de Engenharia de Dados
Descrição da vaga
Sobre a AlmapBBDO
QUEM SOMOS!
#1 Agência Global da Década - Cannes Lions.
Somos uma potência de criatividade e negócios que se reinventa todos os dias.
Acreditamos que a criatividade é protagonista na geração de valor para as marcas, no crescimento dos negócios dos clientes e, não menos importante, na transformação das pessoas. Porque as pessoas são o centro da cultura da agência.
Aqui na AlmapBBDO estimulamos um ambiente cada vez mais plural que permita trocas e aprendizados. Convidamos pessoas negras, LGBTQIAPN+, com deficiência, mulheres e vindas de diferentes níveis socioeconômicos, regiões e universidades do país a fazer parte do nosso time.
Este é o nosso horizonte definitivo, visto por todas as equipes de nossa agência. E é assim que construímos, dia após dia, um ambiente diverso e uma grande ideia chamada AlmapBBDO.
Venha fazer parte do nosso time!
Responsabilidades e atribuições
DESCRIÇÃO DAS PRINCIPAIS RESPONSABILIDADES:
Gestão e Supervisão:
- Revisar código, arquitetura de pipelines e implementações de dados da equipe
- Apoiar o Gerente na aprovação de tarefas, validando qualidade técnica e alinhamento com requisitos
- Conduzir code reviews estruturados, fornecendo feedback construtivo
- Mentorizar e desenvolver técnicamente membros da equipe
- Identificar e documentar lições aprendidas e melhores práticas
- Manter comunicação clara com stakeholders sobre o status técnico
Pipelines e Orquestração de Dados:
- Arquitetar e otimizar pipelines de dados em múltiplas plataformas (GCP, Databricks, Microsoft Fabric)
- Apoiar na criação e manutenção de fluxos de trabalho complexos e escaláveis
- Implementar orquestração com Google Cloud Composer, Airflow, Databricks Workflows e Data Factory
- Garantir idempotência, resiliência e tratamento de erros em pipelines
- Otimizar performance e reduzir latência de processamento
- Implementar processamento em tempo real e batch conforme necessidade
Plataformas Cloud e Infraestrutura:
Google Cloud Platform (GCP):
- BigQuery: design de tabelas, otimização de queries, particionamento e clustering
- Dataflow: pipelines Apache Beam em escala
- Cloud Composer: orquestração de workflows
- Cloud Storage, Pub/Sub, Bigtable
- VPCs, Firewalls e segurança em GCP
- IAM e gerenciamento de identidades
Databricks:
- Arquitetura com Delta Lake e Unity Catalog
- Otimização de Spark SQL e jobs Databricks
- Integração com repositórios Git (MLflow, DLT)
- Segurança, RBAC e governança no Databricks
- Managed infrastructure e clusters
Microsoft Fabric:
- Synapse Analytics e Data Factory
- Power BI integrado com ambientes de dados
- Integração com Azure ecosystem
- Data Warehouse e Lakehouse patterns
Infraestrutura e Operações Cloud:
- Projetar, configurar e manter ambientes cloud (Dev, Staging, Produção)
- Gerenciar VPCs, subnets, firewalls e security groups
- Implementar IAM, autenticação e autorização (RBAC, ACLs)
- Gerenciar secrets, chaves de acesso e compliance de segurança
- Containerização com Docker e orquestração com Kubernetes
- Implementar CI/CD pipelines para automação de deployments
- Monitoramento, logging e alertas (Cloud Logging, Datadog, Prometheus)
- FinOps: otimização de custos em ambientes cloud
- Backup, disaster recovery e business continuity
Qualidade e Governança de Dados:
- Implementar e manter SLAs de qualidade de dados
- Validação de dados, schema evolution e data profiling
- Documentar data lineage e relacionamentos
- Implementar governança de dados (catálogo, metadados)
- Conformidade com LGPD, GDPR, SOC2 e outras regulamentações
- Auditoria e rastreabilidade de acesso aos dados
Arquitetura de Dados:
- Projetar data lakes e data warehouses escaláveis
- Definir estratégias de particionamento e indexação
- Implementar padrões de arquitetura (medallion, star schema, etc.)
- Avaliar trade-offs entre diferentes arquiteturas
- Documentar decisões arquiteturais e manter arquitetura atualizada
Performance e Otimização:
- Identificar gargalos em pipelines e infraestrutura
- Implementar cache, índices e estratégias de compressão
- Otimizar queries em BigQuery, Spark e Synapse
- Monitorar e alertar sobre degradação de performance
- Análise de custos e otimização de recurso de computação
Requisitos e qualificações
QUALIFICAÇÕES DESEJÁVEIS:
FORMAÇÃO:
- Superior Completo em Engenharia, Ciência da Computação, Sistemas de Informação ou afins
- Especialização, certificações ou cursos avançados em arquitetura de dados, cloud computing ou big data (desejável)
CONHECIMENTOS TÉCNICOS OBRIGATÓRIOS:
Programação e Linguagens:
- Python avançado para processamento, transformação e orquestração de dados
- SQL avançado: stored procedures, window functions, otimização de queries
- Conhecimento em pelo menos uma linguagem adicional (Java, Scala, Go)
Plataformas Cloud (essencial ter experiência em ao menos uma):
- Google Cloud Platform (GCP): BigQuery, Dataflow, Cloud Composer, Cloud Storage, Pub/Sub, IAM
- Databricks: Delta Lake, Spark SQL, Unity Catalog, Databricks Workflows
- Microsoft Fabric: Synapse Analytics, Data Factory, Power BI integrado
Infraestrutura Cloud:
- Redes cloud: VPCs, subnets, firewalls, load balancers
- IAM e segurança: gerenciamento de identidades, RBAC, secrets management
- Containerização: Docker e orquestração com Kubernetes
- CI/CD e automação de deployments
- Monitoramento, logging e observabilidade
Engenharia de Dados:
- ETL/ELT: design e implementação de pipelines robustos
- Data warehousing e data lakes
- Processamento em tempo real e batch
- Versionamento de código: Git, GitHub/GitLab
- Orquestração: Airflow, Dataflow, Cloud Composer, Databricks Workflows
- Apache Spark e distributed computing
Qualidade e Governança:
- Data quality frameworks e validação
- Governança de dados e data cataloging
- Compliance: LGPD, GDPR, SOC2
- Data lineage e metadata management
DIFERENCIAIS:
- Experiência com múltiplas plataformas cloud (GCP + Databricks + Microsoft Fabric)
- Certificações cloud (GCP Professional Data Engineer, Databricks Certified, Azure Data Engineer)
- Experiência com streaming de dados (Kafka, Pub/Sub, Kinesis)
- Machine Learning Ops (MLflow, feature stores)
- Experiência em FinOps e otimização de custos cloud
- Conhecimento de GraphQL e APIs REST avançadas
- Experiência em ambientes híbridos (on-premise + cloud)
- Contribuições em projetos open-source de dados (Apache Spark, Airflow, dbt)
- Experiência com Infrastructure as Code (Terraform, CloudFormation, Bicep)
- Liderança técnica comprovada e mentoria de equipes
EXPERIÊNCIA PROFISSIONAL:
- Mínimo de 3-4 anos em engenharia de dados ou posição similar
- Mínimo de 2+ anos com plataformas cloud (GCP, Databricks, Microsoft Azure/Fabric)
- Comprovada experiência em liderança técnica, code review e mentoria
- Experiência em arquitetura e design de soluções de dados
- Background em múltiplos segmentos/indústrias (marketing = diferencial)
COMPETÊNCIAS COMPORTAMENTAIS:
- Liderança técnica e capacidade de mentorizar
- Forte comunicação técnica e não-técnica
- Pensamento estratégico e visão de longo prazo
- Proatividade e capacidade de resolução de problemas
- Flexibilidade e adaptabilidade a novas tecnologias
- Trabalho em equipe e colaboração
- Excelente atenção a detalhes e qualidade
- Comprometimento com boas práticas e padronização
- Capacidade de tomar decisões em ambientes de incerteza
EXPECTATIVAS DE DESEMPENHO:
- Redução de bugs/issues em produção relacionados a dados
- Desenvolvimento técnico comprovável da equipe
- Manutenção de SLAs de qualidade e performance de dados
- Contribuição ativa na evolução arquitetural da plataforma
- Participação em roadmap técnico com o Gerente
- Documentação clara e atualizada dos processos
Informações adicionais
Como é a área de dados da Almap:
Atualmente somos cerca de 70 pessoas, em times segmentados por diversas especialidades: Data Solutions, Data Analytics, Engenharia de Dados, Data Science, Media Research e Accountability
Temos níveis hierárquicos bem definidos com Head da área, Diretoria, Gerências, Coordenação, Analistas (SR, PL e JR) e Estagiários.
Acreditamos no diálogo e no compartilhamento de experiências e conhecimento, fazendo com que nossa gestão seja muito horizontal.
Nossa área tem um clima ótimo, trabalhamos de forma híbrida, remotamente a maior parte do tempo e eventualmente fazemos encontros presenciais para quem pode estar em São Paulo. Temos pessoas residentes em diversos Estados trabalhando conosco. Também fazemos encontros online quinzenalmente com toda a área para troca de experiências e conhecimento.
Etapas do processo
- Etapa 1: Cadastro
- Etapa 2: Entrevista RH
- Etapa 3: Entrevista Gestão
- Etapa 4: Contratação
Quem Somos!
#1 Agência Global da Década - Cannes Lions.
Somos uma potência de criatividade e negócios que se reinventa todos os dias. Acreditamos que a criatividade é protagonista na geração de valor para as marcas, no crescimento dos negócios dos clientes e, não menos
importante, na transformação das pessoas. Porque as pessoas são o centro da cultura da agência.
Aqui na AlmapBBDO estimulamos um ambiente cada vez mais plural que permita trocas e aprendizados. Convidamos pessoas negras, LGBTQIAPN+, com deficiência, mulheres e vindas de diferentes níveis socioeconômicos, regiões e universidades do país a fazer parte do nosso time.
Este é o nosso horizonte definitivo, visto por todas as equipes de nossa agência. E é assim que construímos, dia após dia, um ambiente diverso e uma grande ideia chamada AlmapBBDO.
Venha fazer parte do nosso time!
Conheça mais da Almap através dos nossos canais