Olá, nós somos o CESAR!

Somos um centro de inovação e de educação que há quase 30 anos forma pessoas e impulsiona organizações, potencializando suas estratégias digitais. Resolvemos problemas complexos e desafiadores em um ambiente de trabalho descontraído, descentralizado e repleto de benefícios para nossos colaboradores, que atuam como protagonistas, interagindo diretamente com clientes de escala global.

Como Mid-Level Data Cloud Engineer (GCP) - R2, é esperado que você possua um vasto conhecimento em GCP em IAM, BigQuery; habilidades em Python/PySpark; Cloud Functions e Cloud Scheduler; proficiência com console GCP e ferramentas de linha de comando). Sua missão é desenvolver e realizar Deploy de funções na Cloud, bem como, assegurar a qualidade do produto, promovendo a evolução do time, adquirindo e compartilhando boas práticas e conhecimento técnico, topa? Vamos nessa!

Esperamos que você tenha as habilidades e experiências necessárias para:

  • Desenvolver e implantar uma Cloud Function acionada pelo Cloud Scheduler para automatizar o gerenciamento e backup de recursos do BigQuery.
  • Criar tabela BigQuery Attestation
  • Crie uma tabela do BigQuery para rastrear recursos atestados. (Esquema assumido fornecido)
  • Implementar lógica de gerenciamento de recursos
  • Identificar/fazer backup de recursos não atestados, excluir recursos não atestados, excluir conjuntos de dados vazios (excluindo tabela de atestado), implementar processamento paralelo, manter uma trilha de auditoria detalhada.
  • Implementar permissões IAM
  • Implemente as permissões necessárias do IAM mapeando funções potenciais (BigQuery Data Editor, Cloud Functions Invoker, Cloud Scheduler Admin, Source Repository Writer, BigQuery Job User) para funções existentes do IAM da empresa.
  • Trabalhar em uma equipe ágil de produtos com entregas de código frequentes usando Desenvolvimento Orientado a Testes (TDD), integração contínua e implantação contínua (CI/CD).
  • Realizar quaisquer atividades necessárias de mapeamento de dados, linhagem de dados e documentação dos fluxos de informação.
  • Proporcionar visibilidade sobre problemas de qualidade de dados/veículo/recurso e trabalhar com os donos dos negócios para resolver os problemas.
  • Demonstrar conhecimento técnico e habilidades de comunicação com a capacidade de argumentar e defender soluções bem projetadas.

Habilidades necessárias:

  • Inglês avançado para comunicação diária
  • Ter experiência comprovada (atuação no mercado) em Engenharia de dados, conforme senioridade da vaga, quantidade de anos de experiência profissional em desenvolvimento de produtos de dados e lançamentos de produtos de software.
  • Indispensável - Ter experiência nas linguagens e ferramentas: Python, PySpark, Cloud Functions e Cloud Scheduler, GCP console e GCP command-line
  • Engenharia de dados/software na nuvem, construção pipelines de dados escaláveis, confiáveis e custo-efetivos usando:
    • Google BigQuery.
    • GCP in IAM.
    • Ferramentas de gerenciamento de projetos como Atlassian JIRA.
  • Experiência trabalhando em uma equipe de implementação desde o conceito até as operações, fornecendo profunda expertise técnica para um deployment bem-sucedido. ·
  • Experiência na implementação de métodos para automação de todas as partes do pipeline para minimizar o trabalho no desenvolvimento e na produção.
  • Ter habilidades analíticas para perfilamento de dados e resolução de problemas em pipelines/produtos de dados.
  • Ter a capacidade de simplificar, comunicar claramente ideias/problemas complexos de dados/software e trabalhar com equipes multifuncionais e todos os níveis de gestão de forma independente.
  • Ter forte orientação para resultados e capacidade de realizar múltiplas tarefas e trabalhar de forma independente.
  • Experiência na arquitetura de infraestrutura em nuvem e manejo de migrações/atualizações de aplicativos.
  • Certificações Profissionais GCP.
    • Compreensão da arquitetura subjacente do GCP e experiência prática com produtos como BigQuery, Google Cloud Storage, Cloud SQL, Memory Store, Dataflow, Dataproc, Artifact Registry, Cloud Build, Cloud Run, Vertex AI, Pub/Sub, APIs do GCP.

Habilidades Desejáveis:

  • Mestrado ou grau equivalente estrangeiro em Ciência da Computação, Engenharia de Software, Sistemas de Informação, Engenharia de Dados ou área relacionada.

Aqui no CESAR, nós temos algumas práticas que proporcionam uma rotina mais positiva para a pessoa colaboradora:

  • Horário flexível;
  • Estrutura horizontal;
  • Programas de treinamento e desenvolvimento;
  • Cultura voltada para a Diversidade & Inclusão, onde você pode ser livre pra ser quem é!

Gostou? Espera só para conferir nosso pacote variado de benefícios:

  • Plano de saúde e odontológico;
  • Vale Refeição / Alimentação;
  • Auxílio Idiomas;
  • Auxílio Creche;
  • Auxílio Lentes de Contato;
  • Seguro de Vida;
  • Descontos em cursos da CESAR School;
  • DayOff (no mês do Aniversário);
  • Gympass;
  • Moodar;
  • Cíngulo.

Quer conhecer melhor o CESAR? Clica aqui e vem com a gente!

#inovacaocesar #vemprocesar #soucesar