Home > Formations > Data Mining > 13ème - Gobelins > Formation Apache Hadoop, Développer des Applications pour le Big Data - 13ème - Gobelins - Paris

Formation Apache Hadoop, Développer des Applications pour le Big Data

Contactez sans engagement Logware Institut

Pour envoyer, vous devez accepter la politique de confidentialité

Commentaire sur Formation Apache Hadoop, Développer des Applications pour le Big Data - Présentiel - 13ème - Gobelins - Paris

  • Contenu
    Formation apache Hadoop, développer des applications pour le Big Data.
    • Référence   APHA   
    • En centre - Inter: Oui.
    • En Entreprise - Intra: Oui.
    • Durée: 4 jours
    • Diplôme: Non.
    • Public: Oui.
    • Public demandeurs d'emploi: Non.
    • Public Etudiant: Non.
    • Prix: 2270 €HT.
    Présentation:

    Ce cours vous permettra de développer des applications vous permettant de traiter des données distribuées en mode batch.

    Objectifs du cours:

    Ce stage vous permettra de développer des applications vous permettant de traiter des données distribuées en mode batch. Vous collecterez, stockerez et traiterez des données de formats hétérogènes avec Apache Hadoop afin de mettre en place des chaînes de traitement intégrées à votre système d'information

    Pré-requis:

    Maîtrise du langage Java et ou en architecture web

    Programme:

    Le Big Data
    • Définition du périmètre du Big Data.
    • Le rôle du projet Hadoop.
    • Les concepts de base des projets Big Data.
    • Présentation du Cloud Computing.
    • Différence entre Cloud Computing privé et public.
    • Les architectures Big Data à base du projet Hadoop.
    Collecte de données et application de Map Reduce
    • Analyse des flux de données dans l'entreprise.
    • Données structurées et non-structurées.
    • Les principes de l'analyse sémantique des données d'entreprise.
    • Graphe des tâches à base de MapReduce.
    • La granularité de cohérence des données.
    • Transfert de données depuis un système de persistance dans Hadoop.
    • Transfert de données d'un Cloud dans Hadoop.
    Le stockage des données avec HBase
    • Plusieurs types de base de données XML.
    • Patterns d'usages et application au Cloud.
    • Application de Hadoop database au sein d'un workflow.
    • Utilisation des projets Hive/Pig.
    • Utilisation du projet HCatalog.
    • L'API Java HBase. 
    Le stockage des données sur HDFS
    • Patterns d'usages et application au Cloud.
    • Architecture et installation d'un système HDFS, journal, NameNode, DataNode.
    • Opérations, commandes et gestion des commandes.
    • L'API HDFS Java.
    • Analyse de données avec Apache Pig.
    • Le langage Pig Latin. Utiliser Apache Pig avec Java.
    • Requêtage avec Apache Hive.
    • Réplication de données. Partage de données sur une architecture HDFS.
    Spring Data Hadoop
    • Introduction à Spring et Spring Data.
    • Le namespace Hadoop pour Spring.
    • Utiliser Spring pour simplifier la configuration Hadoop.
    • Configuration du cache distribué.
    • Définition des Jobs et dépendance entre Jobs.
    • Intégration des outils (Pig, Hive...).
    Prochaines sessions:
    • 20 juin 2016
    • 24 octobre 2016
    • 19 décembre 2016

Autre formation en rapport avec Data Mining

Ce site utilise des cookies. En poursuivant votre navigation, vous acceptez son utilisation. Voir plus  |