Vagas de Emprego: Engenheiro de Analytics

Rótulos: ()

Atividades Profissionais: Atuar com construção de dashboards em ferramenta de BI / DW / ETL (ex: Pentaho, Talent); Com gestão de dados (governança, data quality, etc) e com plataformas Cloud (preferencialmente GCP); Com ferramentas de visualização de dados e geração de relatórios (ex: Data Studio, Looker, Power Bi, Tableau); Proficiente em pelo menos uma linguagens de programação (Python, Java, etc) ; Vivência em projetos de BI/Analytics na plataforma Google. Experiências e/ou Qualificações: Superior completo: Ciência/Engenharia da Computação ou Análise de Sistemas; Conhecimento avançado em SQL e Banco de Dados; Perfil analítico; Inglês intermediário. Experiência na função acima. Será um diferencial: Conhecimento de Cloud IAM; Conhecimento de Google Analytics; Conhecimento básico de técnicas/algoritmos de Aprendizado de Máquina.

Rótulos: ()

Atividades Profissionais: Estamos atendendo grande player da área de tecnologia e buscamos Analista de  Dados (BI)/ Desenvolvedor Python  Sênior Requisitos Solida experiência com  Azure( Databricks) para Big Data e Analytics; Experiência com  arquitetura e processos de cargas (SSAS, SSIS) para Datalake; Experiência com desenvolvimento usando a linguagem Python. Contrato PJ  Local:  Home office

Rótulos: ()

Atividades Profissionais: Estamos contratando profissional para atuar em time de projeto de transformação digital como Engenheiro de Dados em nosso time de analytics. Engenheiro de Dados Pleno e Sênior. Experiências e/ou Qualificações: Experiência em criação de pipeline, habilitando capacidades de data moving e ingestão de dados batch e streaming; Atuação em implementação e evolução dos processos de ingestão e integração de dados com processamento batch e fast; Sólido conhecimento do ecossistema BigData e Hadoop; Conhecimento técnico avançado de ferramentas - Hive, Impala, Spark, Phyton, Java, Scala,NiFi, Kafka, BigQuery, ElasticSearch; Microserviços e Pipelines Devops; Streaming e Fast Data.Certificações são um diferencial: Certificação GCP Data Engineer, Certificação Azure - Data Engineer. Informações adicionais: Atuação na região da Zona Sul.

Rótulos: ()

Atividades Profissionais: Apoiar o desenvolvimento de soluções de Analytics em ambiente Cloud. Prover dados para alimentação de dashboards e relatórios. Participar de discussões e iniciativas de Data Engineering na empresa. Auxiliar a produção de relatórios técnicos e atividades desenvolvidas. Experiências e/ou Qualificações: Conhecimento de modelagem de dados e SQL (SQL Server, Oracle). Experiência na criação de rotinas de preparação de dados para análises (ETL). Experiência com a linguagem de programação Java e/ou Scala (JUnit, Play framework, Sbt, etc). Experiência com ferramentas de DevOps (Jenkins, Kubernetes, Docker, etc). Experiência com desenvolvimento em ambiente Cloud (AWS, Azure, GCP). Capacidade de comunicar/apresentar, de forma gráfica e oral, os resultados de análises e tarefas desenvolvidas. Fluência em Inglês (leitura, escrita, conversação, técnico) para contato diário com parceiro no exterior. Competências desejáveis: Experiências em projetos que …

Rótulos: De 10.001 até 15.000 / ()

Atividades Profissionais: Responsável pela integração do Big Query(Google Cloud) com Azure databricks. Fará análise de requisitos com as áreas de negócios. Experiência com Google Cloud e Azure, linguagem (Pyspark ou Spark Scala, SQL). Experiências e/ou Qualificações: Experiência como engenheiro de dados Google Analytics. O recurso deverá ter auto-gestão para atuar no projeto de migração Adobe para o Google Analytics, possuindo bom conhecimento em Google Analytics e Marketing. Este perfil será responsável por: Realizar as ingestões e manipulação de dados na Azure DataBricks. Construir Dashs de performance e invetimento no PowerBI. Cruzar dados e construir relatórios para a área de marketing. Conhecimentos esperados: Sólido conhecimento no ecossistema hadoop. Sólido conhecimento em Spark/Databricks. Sólido conhecimento em python, desejável scala. Sólido conhecimento PaaS Azure (DataBricks, DatalakeStore, Cosmos, DataFactory etc).

Rótulos: ()

… a ingestão de dados externos. Garantir a disponibilidade e performance da plataforma de dados. Implementar/gerir métodos de confidencialidade de dados. Disponibilização e integração de dados atuando como vínculo entre equipes de TI, BI e Analytics. Desenvolver estrutura de informações e dados, inclusive, com integração de dados estruturados com não estruturado. Experiências e/ou Qualificações: Conhecimento em programação distribuída (Apache Spark, Apache Bean, Flink). Experiência com orquestração de JOBs/ETL (Apache Airflow, Luigi, Askaban). Conhecimento em programação (Ruby, Java, Python, Scala, etc). Conhecimento em SQL. Conhecimento em modelagem dimensional. Conhecimento em Cloud ( AWS, GCP, AZURE). Conhecimento sobre o funcionamento de Data Lakes, ferramentas de mensageria (Kafka, Kinesis, PubSub); Familiaridade de como funciona uma API. Ensino Superior completo em Tecnologia da Informação, Engenharia da Computação, Ciência da Computação ou áreas correlatas.

Rótulos: ()

… ou link de dados; Conhecimentos com métodos e ferramentas ágeis para desenvolvimento de soluções; Programar com facilidade em alguma ferramenta analítica, principalmente Python e/ou R; Conhecimentos em sistemas SAP ECC, SAP BW, HANA (interação para extrair dados); Conhecimentos em Arquitetura Cloud para Advanced Analytics (Azure, AWS, Google); Tecnologias baseadas em Hadoop, como MapReduce, Hive, Pig, Spark, hbase, CouchDB; Conhecimentos em Power BI e Tableau; Experiência com SQL, PL / SQL e linguagens semelhantes; Conhecimento dos princípios de Segurança da Informação para garantir o tratamento e o gerenciamento de dados em conformidade. Desenvolvimento de Dashboards/Indicadores com a ferramenta Tableau. Gerenciar stakeholder externo até nível gerencial (cliente). Informações adicionais: No memento estamos trabalhando no regime Home office. Inicialmente por 3 meses, mas pode ser postergado por mais 3 assim por diante. Regime de contratação: Freelancer Temporário

Rótulos: ()

Atividades Profissionais: Atuar em time de projeto de transformação digital como Engenheiro de Dados em nosso time de analytics. Necessário ter experiência como engenheiro de dados como foco em Arquitetura e desenvolvimento utilizando ambiente CLOUD. Experiência em Google Cloud, BigQuery. Experiências e/ou Qualificações: Ter experiência em pipeline de dados Modelagem de dados Desenvolvimento em ETL Certificação Google Cloud Experiência em Machine Learning será um diferencial. Regime de contratação: A combinar

Rótulos: ()

Atividades Profissionais: Você vai atuar na área de de Data & Analytics, sendo responsável pela modelagem de dados, clusterização, segmentação de dados dos projetos e da indústria para auxílio na tomada de decisão. Além disso, vai realizar a avaliação da estruturação de dados atual e futura, proposição e desenvolvimento de uma estrutura de dados futuros e melhorias de código para a base de dados e vai operar todo o processo para gestão das informações do Projeto e Produto de Marketplace no setor de saúde. Experiências e/ou Qualificações: Ensino superior completo em Engenharia de Software e ou similares em Tecnologia; Inglês avançado é desejável e será considerado um diferencial para a função; Conhecimentos mandatórios para o cargo: Experiência anterior na função e em projetos similares; Vivência em programação Python; Conhecimento em SQL, Tableau e DataStudio. Informações adicionais: Local de trabalho: São Paulo, SP Regime de contratação: A combinar

Rótulos: ()

Atividades Profissionais: Automatização de testes utilizando JUnit, SeleniumWebdriver e Cucumber. Execução de testes em sistemas cliente/servidor, planejamento de testes e preparação de roteiros e massas de testes de acordo com as funcionalidades desenvolvidas. Experiências e/ou Qualificações: Experiência em Automatização de testes utilizando JUnit, SeleniumWebdriver e Cucumber. Conhecimento em alguma plataforma de Automação Continua, Ex Jenkins. Experiência com uso de simuladores/mocks. Conhecimentos em lógica e linguagem de programação, preferencialmente Java. Experiência em especificação de casos de testes e capacidade de executar testes funcionais e não funcionais, seguindo roteiros previamente planejados e de reportar bugs com clareza. Experiência de execução de testes em sistemas cliente/servidor, planejamento de testes e preparação de roteiros e massas de testes de acordo com as funcionalidades desenvolvidas. Conhecimento de conceitos de Agile …

Rótulos: ()

Atividades Profissionais: Experiência com soluções de Data e Analytics; Ingestão de dados (SQOOP, NIFI, STRAMSETS, SCRIPTS, etc); Organização de dados; Experiência com Sistema Operacional Linux (Instalação e configuração); Experiência com pelo menos uma ferramenta de orquestração (Control-M, Oozie, Airflow); Desenvolvimento com SQL/Python/Spark; Modelagem de arquitetura de banco de dados SQL; Conhecimentos de administração e utilização de ambiente Hadoop, Impala, Hive (Cloudera); Ferramentas de ETL (NIFI, Sqoop, etc). Fundamentos de Big Data, Fundamentos engenharia de software, Hadoop (HDFS, Partionamento), Kafka, SQL em Hive e Impala. Regime de contratação: CLT

Rótulos: ()

Atividades Profissionais: Engenheiros de dados desenvolvedor para auxiliar na esteira de Analytics, dentro do departamento de CRM. Experiências e/ou Qualificações: Python, Spark, Metodologia Ágil. Teradata é um diferencial.