Analítica de dados com Hadoop - Uma introdução para cientistas de dados

Pronto para usar técnicas estatísticas e de aprendizado de máquina (machine learning) em grandes conjuntos de dados? Este guia prático mostra por que o ecossistema do Hadoop é perfeito para essa tarefa. Em vez de ter como foco a implantação, as operações ou o desenvolvimento de softwares geralmente associados à computação distribuída, você se concentrará nas análises particulares que poderá fazer, nas técnicas de armazém de dados (data warehousing) oferecidas pelo Hadoop e em fluxos de trabalho de alta ordem que esse framework é capaz de gerar.

VITRINE Os TOP de vendas !!

+-

Quem viu este produto , também se interessou

  • Descrição
    Analítica de dados com Hadoop - Uma introdução para cientistas de dados


    Pronto para usar técnicas estatísticas e de aprendizado de máquina (machine learning) em grandes conjuntos de dados? Este guia prático mostra por que o ecossistema do Hadoop é perfeito para essa tarefa. Em vez de ter como foco a implantação, as operações ou o desenvolvimento de softwares geralmente associados à computação distribuída, você se concentrará nas análises particulares que poderá fazer, nas técnicas de armazém de dados (data warehousing) oferecidas pelo Hadoop e em fluxos de trabalho de alta ordem que esse framework é capaz de gerar.

    Os cientistas e os analistas de dados aprenderão a usar diversas técnicas que variam da escrita de aplicações MapReduce e Spark com Python ao uso de modelagem avançada e gerenciamento de dados com Spark MLlib, Hive e HBase. Você também conhecerá os processos analíticos e os sistemas de dados disponíveis para desenvolver e conferir eficácia aos produtos de dados capazes de lidar com – e que, na verdade, exigem – quantidades enormes de dados.

    Entenda os conceitos principais do Hadoop e do processamento em cluster.
    Utilize padrões de projeto e algoritmos analíticos paralelos para criar jobs de análise de dados distribuídos.
    Adquira conhecimentos sobre gerenciamento de dados, mineração e armazém de dados em um contexto distribuído usando Apache Hive e HBase.
    Utilize Sqoop e Apache Flume para entrada de dados a partir de bancos de dados relacionais.
    Programe aplicações Hadoop e Spark complexas com Apache Pig e Spark DataFrames
    .
    Utilize técnicas de aprendizado de máquina, como classificação, clustering e filtragem colaborativa, com a MLib do Spark.
  • Sobre o Autor
  • Especificação

    Características

    Tipo de LivroLivro Físico

    Especificações

    Sobre o Autor Benjamin Bengfort

    Benjamin Bengfort é cientista de dados e trabalha para terminar seu doutorado na Universidade de Maryland, onde estuda aprendizado de máquina e computação distribuída. Programador profissional por ofício, escreve sobre uma grande variedade de assuntos, de Processamento de Linguagem Natural e ciência de dados com Python a analítica (analytics) com Hadoop e Spark.

    Jenny Kim

    Jenny Kim é engenheira sênior de big data e trabalha tanto com softwares comerciais quanto em ambientes acadêmicos. Tem experiência significativa em trabalhos com dados de larga escala, aprendizado de máquina e implementações de Hadoop em ambientes de produção e de pesquisa. Atualmente, trabalha com a equipe de Hue, na Cloudera.

    Informações Técnicas

    Nº de páginas:352
    Origem:Importado
    Editora:Editora Novatec
    Idioma:Português
    Edição:1ª Edição
    Ano:2016
    ISBN:9788575225219
    Encadernação:Brochura
    Autor:Benjamin Bengfort , Jenny Kim
  • Informações

Avaliação técnica sobre o livro

Olá! Seja Bem Vindo (a)!

Eu sou o Moderninho , o Mascote da Ciência Moderna Online!
Além de bonito, o novo site tem Minhas Dicas :) #ficaadica

A 1ª Dica é -> Deixe aqui seu contato para receber nossas
NOVIDADES, PROMOÇÕES E CUPONS DE DESCONTOS ;)

Navegue SEM Moderação!