Olá, nós somos o CESAR!

Somos um centro de inovação e de educação que há quase 30 anos forma pessoas e impulsiona organizações, potencializando suas estratégias digitais. Resolvemos problemas complexos e desafiadores em um ambiente de trabalho descontraído, descentralizado e repleto de benefícios para nossos colaboradores, que atuam como protagonistas, interagindo diretamente com clientes de escala global.

Como Senior Cloud Data Engineer, sua missão será de assegurar a qualidade do produto, promovendo a evolução do time, adquirindo e compartilhando boas práticas e conhecimento técnico, topa? Vamos nessa!


Esperamos que você tenha as habilidades e experiências necessárias para:

  • Desenvolver produtos analíticos de dados utilizando Airflow, DataProc, PySpark e BigQuery na Google Cloud Platform, com sólidos princípios de data warehouse.
  • Construir pipelines de dados para monitorar a qualidade dos dados e o desempenho dos modelos analíticos.
  • Manter a Infraestrutura da plataforma de dados usando Terraform e desenvolver, avaliar e entregar um código, por meio de CI/CD.
  • Colaborar com as partes envolvidas na análise de dados para agilizar o processo de aquisição, processamento e apresentação dos dados.
  • Implementar um modelo de governança de dados empresarial e promover ativamente o conceito de proteção, compartilhamento, reutilização, qualidade e padrões de dados.
  • Melhorar e manter as capacidades de DevOps da plataforma de dados.
  • Otimizar e melhorar continuamente as soluções de dados existentes (pipelines, produtos, infraestrutura) para obter o melhor desempenho, alta segurança, baixa vulnerabilidade, baixos custos e alta confiabilidade.
  • Trabalhar em uma equipe ágil de produtos com entregas de código frequentes usando Desenvolvimento Orientado a Testes (TDD), integração contínua e implantação contínua (CI/CD).
  • Resolver issues de qualidade de código apontadas pelas ferramentas SonarQube, Checkmarx, Fossa e Cycode ao longo do ciclo de desenvolvimento.
  • Realizar quaisquer atividades necessárias de mapeamento de dados, linhagem de dados e documentação dos fluxos de informação.
  • Proporcionar visibilidade sobre problemas de qualidade de dados/veículo/recurso e trabalhar com os donos dos negócios para resolver os problemas.
  • Demonstrar conhecimento técnico e habilidades de comunicação com a capacidade de argumentar e defender soluções bem projetadas.

Habilidades necessárias:

  • Inglês avançado para comunicação diária
  • Ter experiência comprovada (atuação no mercado) em Engenharia de dados,

conforme senioridade da vaga - Sênior, quantidade de anos de experiência profissional em desenvolvimento de produtos de dados e lançamentos de produtos de software.

  • Ter experiência em pelo menos três das seguintes linguagens: Java, Python, Spark, Scala, SQL.
  • Engenharia de dados/software na nuvem, construção pipelines de dados escaláveis, confiáveis e custo-efetivos usando:
    • Google BigQuery.
    • Ferramentas de orquestração de workflows como Airflow.
    • APIs REST para computação, armazenamento, operações e segurança.
    • Ferramentas de DevOps como Tekton, GitHub Actions, Git, GitHub, Terraform, Docker.
    • Ferramentas de gerenciamento de projetos como Atlassian JIRA. ·
  • Experiência trabalhando em uma equipe de implementação desde o conceito até as operações, fornecendo profunda expertise técnica para um deployment bem-sucedido. ·
  • Experiência na implementação de métodos para automação de todas as partes do pipeline para minimizar o trabalho no desenvolvimento e na produção.
  • Ter habilidades analíticas para perfilamento de dados e resolução de problemas em pipelines/produtos de dados.
  • Ter a capacidade de simplificar, comunicar claramente ideias/problemas complexos de dados/software e trabalhar com equipes multifuncionais e todos os níveis de gestão de forma independente.
  • Ter forte orientação para resultados e capacidade de realizar múltiplas tarefas e trabalhar de forma independente.
  • Experiência com otimização de desempenho em SQL, Python, PySpark ou Java. ·
    • Capacidade comprovada de documentar sistemas complexos.
    • Compromisso demonstrado com qualidade e prazos de projeto.
  • Prover código que seja comprometido em melhorar projetos de engenharia de dados/software de código aberto.
  • Experiência na arquitetura de infraestrutura em nuvem e manejo de migrações/atualizações de aplicativos.
  • Certificações Profissionais GCP.
    • Compreensão profunda da arquitetura subjacente do GCP e experiência prática com produtos como BigQuery, Google Cloud Storage, Cloud SQL, Memory Store, Dataflow, Dataproc, Artifact Registry, Cloud Build, Cloud Run, Vertex AI, Pub/Sub, APIs do GCP.


Habilidades Desejáveis:

  • Mestrado ou grau equivalente estrangeiro em Ciência da Computação, Engenharia de Software, Sistemas de Informação, Engenharia de Dados ou área relacionada.


Aqui no CESAR, nós temos algumas práticas que proporcionam uma rotina mais positiva para a pessoa colaboradora:

  • Horário flexível;
  • Estrutura horizontal;
  • Programas de treinamento e desenvolvimento;
  • Cultura voltada para a Diversidade & Inclusão, onde você pode ser livre pra ser quem é!


Gostou? Espera só para conferir nosso pacote variado de benefícios:

  • Plano de saúde e odontológico;
  • Vale Refeição / Alimentação;
  • Auxílio Idiomas;
  • Auxílio Creche;
  • Auxílio Lentes de Contato;
  • Seguro de Vida;
  • Descontos em cursos da CESAR School;
  • DayOff (no mês do Aniversário);
  • Gympass;
  • Moodar;
  • Cíngulo.

Quer conhecer melhor o CESAR? Clica aqui e vem com a gente!

#inovacaocesar #vemprocesar #soucesar