Olá, nós somos o CESAR!

Somos um centro de inovação e de educação que há quase 30 anos forma pessoas e impulsiona organizações, potencializando suas estratégias digitais. Resolvemos problemas complexos e desafiadores em um ambiente de trabalho descontraído, descentralizado e repleto de benefícios para nossos colaboradores, que atuam como protagonistas, interagindo diretamente com clientes de escala global.

Como Mid-Level Data Engineer (GCP), sua missão será de assegurar a qualidade do produto, promovendo a evolução do time, adquirindo e compartilhando boas práticas e conhecimento técnico, topa? Vamos nessa!


Esperamos que você tenha as habilidades e experiências necessárias para:

  • Desenvolver produtos analíticos de dados utilizando Airflow, DataProc, PySpark e BigQuery na Google Cloud Platform, com sólidos princípios de data warehouse.
  • Construir pipelines de dados para monitorar a qualidade dos dados e o desempenho dos modelos analíticos.
  • Manter a Infraestrutura da plataforma de dados usando Terraform e desenvolver, avaliar e entregar um código, por meio de CI/CD.
  • Colaborar com as partes envolvidas na análise de dados para agilizar o processo de aquisição, processamento e apresentação dos dados.
  • Implementar um modelo de governança de dados empresarial e promover ativamente o conceito de proteção, compartilhamento, reutilização, qualidade e padrões de dados.
  • Melhorar e manter as capacidades de DevOps da plataforma de dados.
  • Otimizar e melhorar continuamente as soluções de dados existentes (pipelines, produtos, infraestrutura) para obter o melhor desempenho, alta segurança, baixa vulnerabilidade, baixos custos e alta confiabilidade.
  • Trabalhar em uma equipe ágil de produtos com entregas de código frequentes usando Desenvolvimento Orientado a Testes (TDD), integração contínua e implantação contínua (CI/CD).
  • Resolver issues de qualidade de código apontadas pelas ferramentas SonarQube, Checkmarx, Fossa e Cycode ao longo do ciclo de desenvolvimento.
  • Realizar quaisquer atividades necessárias de mapeamento de dados, linhagem de dados e documentação dos fluxos de informação.
  • Proporcionar visibilidade sobre problemas de qualidade de dados/veículo/recurso e trabalhar com os donos dos negócios para resolver os problemas.
  • Demonstrar conhecimento técnico e habilidades de comunicação com a capacidade de argumentar e defender soluções bem projetadas.

Precisamos que tenha:

  • Inglês avançado para comunicação diária
  • Experiência comprovada (atuação no mercado) em Engenharia de dados,
  • Experiência em pelo menos três das seguintes linguagens: Java, Python, Spark, SQL.
  • Vivência com Engenharia de dados/software na nuvem, construção pipelines de dados escaláveis, confiáveis e custo-efetivos usando:
    • Google BigQuery.
    • Ferramentas de orquestração de workflows como Airflow.
    • APIs REST para computação, armazenamento, operações e segurança.
    • Ferramentas de DevOps como Tekton, GitHub Actions, Git, GitHub, Terraform, Docker, Astronomer.
    • Ferramentas de gerenciamento de projetos como Atlassian JIRA.
  • Experiência trabalhando em uma equipe de implementação desde o conceito até as operações, fornecendo profunda expertise técnica para um deployment bem-sucedido.
  • Experiência na implementação de métodos para automação de todas as partes do pipeline para minimizar o trabalho no desenvolvimento e na produção.
  • Habilidades analíticas para perfilamento de dados e resolução de problemas em pipelines/produtos de dados.
  • Capacidade de simplificar, comunicar claramente ideias/problemas complexos de dados/software e trabalhar com equipes multifuncionais e todos os níveis de gestão de forma independente.
  • Ter forte orientação para resultados e capacidade de realizar múltiplas tarefas e trabalhar de forma independente.
  • Experiência com otimização de desempenho em SQL, Python, PySpark ou Java.
  • Experiência na arquitetura de infraestrutura em nuvem e manejo de migrações/atualizações de aplicativos (Astronomer).
  • Compreensão da arquitetura subjacente do GCP e experiência prática com produtos como BigQuery, Google Cloud Storage, Cloud SQL, Memory Store, Dataflow, Dataproc, Artifact Registry, Cloud Build, Cloud Run, Vertex AI, Pub/Sub, APIs do GCP.


Aqui no CESAR, nós temos algumas práticas que proporcionam uma rotina mais positiva para a pessoa colaboradora:

  • Horário flexível;
  • Estrutura horizontal;
  • Programas de treinamento e desenvolvimento;
  • Cultura voltada para a Diversidade & Inclusão, onde você pode ser livre pra ser quem é!


Gostou? Espera só para conferir nosso pacote variado de benefícios:

  • Plano de saúde e odontológico;
  • Vale Refeição / Alimentação;
  • Auxílio Idiomas;
  • Auxílio Creche;
  • Auxílio Lentes de Contato;
  • Seguro de Vida;
  • Descontos em cursos da CESAR School;
  • DayOff (no mês do Aniversário);
  • Gympass;
  • Moodar;
  • Cíngulo.


Quer conhecer melhor o CESAR? Clica aqui e vem com a gente!

#inovacaocesar #vemprocesar #soucesar