terça-feira, 5 de agosto de 2025

ENGENHEIRO DE DADOS R$ 9.709,80 - LIBERDADE, SP

ENGENHEIRO DE DADOS R$ 9.709,80 - LIBERDADE, SP

Inscrições até o dia 10/08/2025

CEJAM


REQUISITOS:

Ensino Superior completo em Engenharia de Dados, Ciência da Computação, Sistemas de Informação ou áreas correlatas.

Experiência prévia comprovada como Engenheiro(a) de Dados.

Domínio em Python, SQL e em ecossistemas de nuvem (GCP, Azure, Databricks ou Fabric).

Conhecimento sólido em modelagem de dados (Data Warehouse, Data Lakehouse), orquestração (Airflow), processamento de Big Data (Spark),

Diferenciais:

Pós-Graduação nas áreas de Tecnologia, Computação ou Governança de Dados.

Certificações profissionais como: GCP (Professional Data Engineer), Azure (DP-203), Databricks (Data Engineer Associate/Professional), DP-700 (Fabric Data Engineer Associate).

Experiência no setor da saúde e/ou conhecimento em interoperabilidade (HL7 FHIR).


Conhecimentos Técnicos Desejados:

Linguagens: Python, SQL, R, Scala.

Paradigmas: Programação Orientada a Objetos, Padrões de Projeto (Design Patterns).

Modelagem e Arquitetura de Dados: Modelagem dimensional (Kimball), Arquitetura Medalhão (Bronze, Silver, Gold), Data Vault.

Orquestração: Apache Airflow, Azure Data Factory.

Processamento: Azure Databricks, GCP Dataproc, Apache Flink, Kafka.

Armazenamento: Google BigQuery, Azure Synapse Analytics, ADLS Gen2.

Linhagem e Governança de Dados: dbt (Data Build Tool), Azure Microsoft Purview, GCP Dataplex, DAMA-DMBOK.

Qualidade de Dados: Great Expectations, dbt tests.

Conteinerização: Docker, Kubernetes.

Visualização: Power BI, Looker, Tableau, Grafana.

IAC e CI/CD: Terraform, Git, GitHub Actions, Azure DevOps.

Métodos Ágeis: Scrum, Kanban.

Modelos de Processo: CRISP-DM (para projetos de dados).


DESCRITIVO:

Arquitetura e Pipelines de Dados: Projetar, construir e otimizar pipelines de dados (ETL/ELT) robustos e escaláveis, integrando múltiplas fontes como bancos de dados e APIs.

Modelagem e Armazenamento: Definir a estratégia de armazenamento, implementando desde Data Warehouses (Kimball) até arquiteturas modernas como Data Lakehouses, com foco em performance, governança e integridade.

Cloud e Big Data: Utilizar plataformas de nuvem (GCP ou Azure) para gerenciar a arquitetura de dados e desenvolver soluções para processamento de grandes volumes de dados (Big Data) com Python (PySpark) e SQL.

DataOps e Automação: Aplicar práticas de DataOps para automação de implantação e monitoramento, utilizando Git para versionamento e esteiras de CI/CD.

Qualidade e Performance: Garantir a qualidade, integridade e disponibilidade dos dados, monitorando e resolvendo falhas e gargalos de performance nos sistemas.

Colaboração e Inovação: Trabalhar em parceria com analistas, cientistas de dados e stakeholders para traduzir requisitos de negócio em soluções técnicas, mantendo a documentação atualizada e propondo melhorias contínuas.


Informações da Vaga:

Local de Trabalho: São Paulo (Sede Administrativa).

Carga Horária: 40 horas semanais (segunda a sexta-feira).

Salário: R$ 9.709,80.

Benefícios: Vale alimentação, vale refeição, seguro de vida, auxílio creche, vale transporte e convênio com o SESC.

Benefícios Opcionais: Assistência Médica, Assistência Odontológica, Previdência Privada, Cartão Multibenefícios, TotalPass, Zenklub.


Para mais informações e inscrições, acesse: https://cejam.pandape.infojobs.com.br/Detail/2392907

 

Nenhum comentário:

Postar um comentário