Olá, nós somos o CESAR!
Somos um centro de inovação e de educação que há quase 30 anos forma pessoas e impulsiona organizações, potencializando suas estratégias digitais. Resolvemos problemas complexos e desafiadores em um ambiente de trabalho descontraído, descentralizado e repleto de benefícios para nossos colaboradores, que atuam como protagonistas, interagindo diretamente com clientes de escala global.
Como Mid-Level Data Engineer (GCP), sua missão será de assegurar a qualidade do produto, promovendo a evolução do time, adquirindo e compartilhando boas práticas e conhecimento técnico, topa? Vamos nessa!
Esperamos que você tenha as habilidades e experiências necessárias para:
- Desenvolver produtos analíticos de dados utilizando Airflow, DataProc, PySpark e BigQuery na Google Cloud Platform, com sólidos princípios de data warehouse.
- Construir pipelines de dados para monitorar a qualidade dos dados e o desempenho dos modelos analíticos.
- Manter a Infraestrutura da plataforma de dados usando Terraform e desenvolver, avaliar e entregar um código, por meio de CI/CD.
- Colaborar com as partes envolvidas na análise de dados para agilizar o processo de aquisição, processamento e apresentação dos dados.
- Implementar um modelo de governança de dados empresarial e promover ativamente o conceito de proteção, compartilhamento, reutilização, qualidade e padrões de dados.
- Melhorar e manter as capacidades de DevOps da plataforma de dados.
- Otimizar e melhorar continuamente as soluções de dados existentes (pipelines, produtos, infraestrutura) para obter o melhor desempenho, alta segurança, baixa vulnerabilidade, baixos custos e alta confiabilidade.
- Trabalhar em uma equipe ágil de produtos com entregas de código frequentes usando Desenvolvimento Orientado a Testes (TDD), integração contínua e implantação contínua (CI/CD).
- Resolver issues de qualidade de código apontadas pelas ferramentas SonarQube, Checkmarx, Fossa e Cycode ao longo do ciclo de desenvolvimento.
- Realizar quaisquer atividades necessárias de mapeamento de dados, linhagem de dados e documentação dos fluxos de informação.
- Proporcionar visibilidade sobre problemas de qualidade de dados/veículo/recurso e trabalhar com os donos dos negócios para resolver os problemas.
- Demonstrar conhecimento técnico e habilidades de comunicação com a capacidade de argumentar e defender soluções bem projetadas.
Precisamos que tenha:
- Inglês avançado para comunicação diária
- Experiência comprovada (atuação no mercado) em Engenharia de dados,
- Experiência em pelo menos três das seguintes linguagens: Java, Python, Spark, SQL.
- Vivência com Engenharia de dados/software na nuvem, construção pipelines de dados escaláveis, confiáveis e custo-efetivos usando:
- Google BigQuery.
- Ferramentas de orquestração de workflows como Airflow.
- APIs REST para computação, armazenamento, operações e segurança.
- Ferramentas de DevOps como Tekton, GitHub Actions, Git, GitHub, Terraform, Docker, Astronomer.
- Ferramentas de gerenciamento de projetos como Atlassian JIRA.
- Experiência trabalhando em uma equipe de implementação desde o conceito até as operações, fornecendo profunda expertise técnica para um deployment bem-sucedido.
- Experiência na implementação de métodos para automação de todas as partes do pipeline para minimizar o trabalho no desenvolvimento e na produção.
- Habilidades analíticas para perfilamento de dados e resolução de problemas em pipelines/produtos de dados.
- Capacidade de simplificar, comunicar claramente ideias/problemas complexos de dados/software e trabalhar com equipes multifuncionais e todos os níveis de gestão de forma independente.
- Ter forte orientação para resultados e capacidade de realizar múltiplas tarefas e trabalhar de forma independente.
- Experiência com otimização de desempenho em SQL, Python, PySpark ou Java.
- Experiência na arquitetura de infraestrutura em nuvem e manejo de migrações/atualizações de aplicativos (Astronomer).
- Compreensão da arquitetura subjacente do GCP e experiência prática com produtos como BigQuery, Google Cloud Storage, Cloud SQL, Memory Store, Dataflow, Dataproc, Artifact Registry, Cloud Build, Cloud Run, Vertex AI, Pub/Sub, APIs do GCP.
Aqui no CESAR, nós temos algumas práticas que proporcionam uma rotina mais positiva para a pessoa colaboradora:
- Horário flexível;
- Estrutura horizontal;
- Programas de treinamento e desenvolvimento;
- Cultura voltada para a Diversidade & Inclusão, onde você pode ser livre pra ser quem é!
Gostou? Espera só para conferir nosso pacote variado de benefícios:
- Plano de saúde e odontológico;
- Vale Refeição / Alimentação;
- Auxílio Idiomas;
- Auxílio Creche;
- Auxílio Lentes de Contato;
- Seguro de Vida;
- Descontos em cursos da CESAR School;
- DayOff (no mês do Aniversário);
- Gympass;
- Moodar;
- Cíngulo.
Quer conhecer melhor o CESAR? Clica aqui e vem com a gente!
#inovacaocesar #vemprocesar #soucesar