Vagas de Emprego: Engenheiro de Dados Junior

Rótulos: De 8.001 até 9.000 / ()

Atividades Profissionais: Elaborar especificações técnicas para aquisição de equipamentos/sistemas telecomunicações, acompanhar testes de aceitação em fábrica e em campo de equipamentos/sistemas telecomunicações, acompanhar/supervisionar instalações de equipamentos/sistemas de telecomunicações, elaborar relatórios técnicos, elaborar pareceres técnicos. Experiências e/ou Qualificações: Conhecimento em equipamentos/sistemas eletrônicos/ telecomunicações, comunicação de dados e transmissão/recepção digital. Desejável ter conhecimento de sistemas VHF/UHF. Atividades de engenharia de eletrônica/telecomunicações relacionadas com o controle do espaço aéreo, contratos de fornecimento de equipamentos/sistemas telecomunicações e análise de propostas. Informações adicionais: Disponibilidade para viagens. Regime de contratação: CLT

Rótulos: ()

Atividades Profissionais: Responsável pelo Data Lake, no seu funcionamento e na forma como as outras áreas farão o uso dos dados corretamente. Desenvolver e manter pipelines de dados em lote e online que sejam escaláveis e monitoráveis. Desenvolver rotinas ETL. Realizar a interface com os demais engenheiros de backend, cientistas de dados, analistas de dados, product owners e analistas de qualidade. Apoiar as áreas internas da companhia no desenvolvimento de bases de dados eficientes e padronizadas. Implementar processos e sistemas para monitorar a qualidade dos dados, garantindo que as informações disponíveis para tomadas de decisão estejam acuradas com os dados de produção. Experiências e/ou Qualificações: Necessário Graduação completa em Ciências da Computação, Engenharia da Computação, Sistemas de Informação, Análise e Desenvolvimento de Sistemas ou em áreas correlatas. Será um diferencial ter Pós-graduação em áreas correlatas. Necessário conhecimento em sistemas de …

Rótulos: De 10.001 até 15.000 / ()

Atividades Profissionais: -Fortes conhecimentos em integrações de sistemas; Experiências e/ou Qualificações: Vivência com componentes Azure é fundamental; - API's; - Modelo de dados; - Banco de dados; - Uso intensivo de soluções Microsoft. Informações adicionais: Vaga inicialmente remota, após a Pandemia será no cliente (Centro- Rio de Janeiro) Regime de contratação: Pessoa Jurídica

Rótulos: ()

Atividades Profissionais: Atuar com Apache Hadoop, Cloudera, HDFS, Sqoop, Talend, Map Reduce, Kerberos, Sentry. Experiências e/ou Qualificações: Experiência na função. Ensino Superior em Análise de Sistemas, Ciência da Computação, Engenharia da Computação, Sistemas da Informação ou similares. Experiência de implementação de Banco de Dados. Vivência em implementação utilizando Big Data e Analytics. Regime de contratação: CLT

Rótulos: ()

Atividades Profissionais: Atuar com Apache Hadoop, Cloudera, HDFS, Sqoop, Talend, Map Reduce, Kerberos, Sentry. Experiências e/ou Qualificações: Ensino Superior completo em Análise de Sistemas, Ciência da Computação, Engenharia da Computação, Sistemas da Informação ou similares. Experiência de implementação de Banco de Dados Vivência em implementação utilizando Big Data e Analytics. Experiência na função. Regime de contratação: A combinar

Rótulos: ()

Atividades Profissionais: Responsável por gerenciar, otimizar, supervisionar e monitorar a recuperação, armazenamento e distribuição de dados em toda a organização. Engenheiros de dados são membros vitais de qualquer equipe corporativa de análise de dados. Experiências e/ou Qualificações: Ensino Superior completo em em Análise de Sistemas, Ciência da Computação, Engenharia da Computação, Sistemas da Informação ou similares; Experiência de implementação de Banco de Dados. Vivência em implementação utilizando Big Data e Analytics. Experiência em: Apache Hadoop/ Cloudera / HDFS / Sqoop / Talend / Map Reduce / Kerberos / Sentry. Será um diferencial: Inglês Intermediário e Espanhol Intermediário. Regime de contratação: A combinar

Rótulos: ()

Atividades Profissionais: Analista programador em Big Data com sólidos conhecimentos e experiência em projetos,Big Data: Google Cloud Platform, Hive, Sqoop, Pyhton, Spark, Jupyter Notebook, desejável scala/java, Datastudio, Power BI,Banco de Dados: Oracle, PL/SQL, postgreSql, SqlServer,Shell Script, Control-M, Unix, Linux,Experiência em análise e programação,Modelagem de Dados Relacional e Dimensional. Regime de contratação: A combinar

Rótulos: De 7.001 até 8.000 / ()

Atividades Profissionais: Desenvolvimento de Abstração do negócio,ETL,EDA, Features Engineering, ML Engineering, Data Visualization. Produzir testes de validação de modelos. Experiências e/ou Qualificações: Aplicação e análise de dados e modelagem de algoritmos. Experiência com métodos ágeis. Conhecimentos na modelagem em ambiente de nuvem. Mínimo grau de mestre em ciências exatas. Desejável PhD. Progamação Python/R. Microsoft Office. Python. Ferramentas de Visualização. SQL. Linux. Pandas. Matplotib. scikit learn. TensorFlow. pytorch. Jupyter e Jupyter Lab.

Rótulos: ()

… nossos clientes; Garantir a qualidade e a manutenibilidade de todo código produzido por você e seus pares; Enfrentar desafios envolvendo diferentes linguagens e tecnologias; Ensinar e aprender constantemente em um ambiente colaborativo. Experiências e/ou Qualificações: Experiência profissional em desenvolvimento de software; Experiência em Python, Hadoop Ecosystem (Apache Spark, EMR, HDFS), Estrutura de dados com Object Storage (Ex: AWS S3), Arquiteturas de Dados para processamento em batch e realtime, ETL´s. Habilidade para escrever código otimizado e de acordo com as boas práticas de desenvolvimento; Conhecimento e experiência em projetos anteriores com bancos de dados relacionais; Experiência com escrita e manutenção de testes unitários e de integração. E se tiver isso também, melhor ainda: Experiência em Apache Zeppelin, Apache Livy, Apache Airflow, Redshift; Participação em comunidades de tecnologia; Contribuição com projetos open source. Regime de contratação: A combinar

Rótulos: ()

Atividades Profissionais: Construir, avaliar e executar scripts de atualização de dados de forma performática. Criar modelagem e persistência de dados, com as melhores práticas. Criação de modelagem de dados relacional e não relacional. Criação de pipelines no jenkins e infraestrutura na AWS para a estrutura de dados. Experiências e/ou Qualificações: Conhecimento no desenvolvimento com a linguagem Python. Conhecimento nos serviços da AWS (SQS, S3 e EC2). Criação de pipelines no Jenkins. Domínio do Jypiter Notebooks. Experiência com bancos de dados e tecnologias relacionadas (SQL, noSQL). Experiência em trabalhar com ferramentas e linguagens voltadas à análise de dados. Produzir análises detalhadas sobre comortamento de usuários, modelos estatísticos, fontes de dados. Descobrir e avaliar a relevância de novas fonte de dados. Regime de contratação: A combinar

Rótulos: ()

… colaborativo. Experiências e/ou Qualificações: Experiência profissional em desenvolvimento de software; Experiência em Python, Hadoop Ecosystem (Apache Spark, EMR, HDFS), Estrutura de dados com Object Storage (Ex: AWS S3), Arquiteturas de Dados para processamento em batch e realtime, ETL´s. Habilidade para escrever código otimizado e de acordo com as boas práticas de desenvolvimento; Conhecimento e experiência em projetos anteriores com bancos de dados relacionais; Experiência com escrita e manutenção de testes unitários e de integração. Experiência em Apache Zeppelin, Apache Livy, Apache Airflow, Redshift; Participação em comunidades de tecnologia; Contribuição com projetos open source. Informações adicionais: Máquinas de café a vontade; Massagem e ginástica laboral in company; Sala de Relax com TV, mesa de bilhar, carteado, tênis de mesa, vídeo games e puffs; Salão de beleza in company (cabelereiro, depilação, manicure, estética corporal); Academia e aula de Yoga in …

Rótulos: ()

Atividades Profissionais: Será responsável pelos dados no ecossistema hadoop (hive, hbase, spark scala). Experiências e/ou Qualificações: Experiência com bando de dados (Teradata, Sql Server ou Oracle). Experiência com Shell Script. Desejável: Conhecimentos de mongodb. Conhecimentos de Python. Conhecimentos de Java. Conhecimentos plataforma Cloudera. Informações adicionais: Local: Botafogo ou HOmeOffice.