> Formations > Technologies numériques > Intelligence Artificielle, Big Data > Big Data > Formation Talend, intégration de données pour le Big Data > Formations > Technologies numériques > Formation Talend, intégration de données pour le Big Data
Nouvelle formation Formation référencée dans une action collective

Formation : Talend, intégration de données pour le Big Data

Talend, intégration de données pour le Big Data

Télécharger au format pdf Partager cette formation par e-mail 2

Télécharger au format pdf Partager cette formation par e-mail 2

La plateforme d'intégration de données de Talend étend ses possibilités aux technologies Big Data que sont Hadoop (HDFS, HBase, HCatalog, Hive et Pig) et les bases NoSQL Cassandra et MongoDB. Ce cours vous apportera les bases pour bien utiliser les composants Talend crées pour communiquer avec les systèmes Big Data.


Inter
Intra
Sur mesure

Cours pratique en présentiel ou en classe à distance

Réf. IDB
Prix : 2280 € H.T.
  3j - 21h00
Pauses-café et
déjeuners offerts
Financements




La plateforme d'intégration de données de Talend étend ses possibilités aux technologies Big Data que sont Hadoop (HDFS, HBase, HCatalog, Hive et Pig) et les bases NoSQL Cassandra et MongoDB. Ce cours vous apportera les bases pour bien utiliser les composants Talend crées pour communiquer avec les systèmes Big Data.

Objectifs pédagogiques
À l’issue de la formation, le participant sera en mesure de :
  • Maîtriser Talend dans un environnement Big Data
  • Se servir de Talend comme lien entre les fichiers, applications et bases de données
  • Acquérir la philosophie de l'outil
  • Adopter des bonnes pratiques et concevoir des Systèmes d’informations flexibles et robustes
  • Être capable d'implémenter ses Jobs
  • Lire et écrire des données sur HDFS et dans des bases de données NoSQL avec des Jobs Talend
  • Réaliser des Jobs de transformation à l'aide de Pig et Hive
  • Gérer la qualité de la donnée avec Talend
  • Utiliser Sqoop pour faciliter la migration de bases de données relationnelles dans Hadoop
  • Maîtriser l'utilisation de la bibliothèque de composants
  • Effectuer des traitements ETL (Extract, Transform and Load) simple et complexes de bout en bout

Public concerné
Consultants BI, Architectes, chefs de projets, gestionnaires de données ou toute personne devant gérer des flux de données.

Prérequis
Avoir des connaissances en Hadoop, Spark et Kafka.
Vérifiez que vous avez les prérequis nécessaires pour profiter pleinement de cette formation en faisant  ce test.

Programme de la formation

Présentation de Talend Open Studio

  • L'intégration de données. Les solutions ETL.
  • Le Big Data. Données non structurées. Bases de données NoSQL.
  • L'écosystème Hadoop (HDFS, MapReduce, HBase, Hive, Pig...).
  • TOS for Data Integration : intégration des données.
  • TOS for Data Quality : gestion de la qualité de la donnée.
  • TOS for Big Data.
  • Philosophie du produit.
Travaux pratiques
Installation/configuration de TOS for Big Data. Prise en main.

Concevoir des Jobs

  • Présentation de Business Modeler, de Job Designer.
  • Composants de transformation simples.
  • Visualiser du code généré, exécuter un job.
  • Paramétrer les jobs.
  • Créer et gérer ses propres variables.
  • Bonnes pratiques de conception.
Travaux pratiques
Développement d'un job se connectant à une source de données, filtrage, transformation et stockage du résultat dans un fichier.

Intégration de données dans un cluster et des bases de données NoSQL

  • Définition des métadonnées de connexion du cluster Hadoop.
  • Connexion à une base de MongoDB, Neo4j, Cassandra ou Hbase et export de données.
  • Intégration simple de données avec un cluster Hadoop.
  • Présentation de composants d’extension.
  • Utilisation du composant d’extension : capture de tweets et importation directe dans HDFS.
Travaux pratiques
Lire des tweets et les stocker sous forme de fichiers dans HDFS, analyser la fréquence des thèmes abordés et mémorisation du résultat dans HBase.

Import / Export avec SQOOP

  • Utiliser Sqoop pour importer, exporter, mettre à jour des données entre systèmes RDBMS et HDFS.
  • Importer/exporter partiellement, de façon incrémentale des tables.
  • Importer/Exporter une base SQL depuis et vers HDFS.
  • Les formats de stockage dans le Big Data (AVRO, Parquet, ORC…).
Travaux pratiques
Réaliser une migration de tables relationnelles sur HDFS et réciproquement.

Effectuer des manipulations sur les données

  • Présentation de la brique PIG et de son langage PigLatin.
  • Principaux composants Pig de Talend, conception de flux Pig.
  • Développement de routines UDF.
Travaux pratiques
Dégager les tendances d’utilisation d’un site Web à partir de l’analyse de ses logs.

Architecture et bonnes pratiques dans un cluster Hadoop

  • Concevoir un stockage efficient dans HADOOP.
  • Datalake versus Datawarehouse, doit-on choisir ?
  • HADOOP et le Plan de Reprise d’Activité (PRA) en cas d’incident majeur.
  • Automatiser ses workflows.
Travaux pratiques
Créer son datalake et automatiser son fonctionnement.

Analyser et entreposer vos données avec Hive

  • Métadonnées de connexion et de schéma Hive.
  • Le langage HiveQL.
  • Conception de flux Hive, exécution de requêtes.
  • Mettre en œuvre les composants ELT de Hive.
Travaux pratiques
Stocker dans HBase l’évolution du cours d’une action, consolider ce flux avec Hive de manière à matérialiser son évolution heure par heure pour une journée donnée.


Modalités pratiques
Succession de mini-projets donnant lieu à la conception de jobs Talend Big Data de difficulté croissante.

Modalités d'évaluation
Le formateur évalue la progression pédagogique du participant tout au long de la formation au moyen de QCM, mises en situation, travaux pratiques…
Le participant complète également un test de positionnement en amont et en aval pour valider les compétences acquises.

Solutions de financement
Pour trouver la meilleure solution de financement adaptée à votre situation : contactez votre conseiller formation.
Il vous aidera à choisir parmi les solutions suivantes :
  • Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
  • Le dispositif FNE-Formation.
  • L’OPCO (opérateurs de compétences) de votre entreprise.
  • Pôle Emploi sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.
  • Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
  • Le dispositif FNE-Formation.
  • L’OPCO (opérateurs de compétences) de votre entreprise.
  • Pôle Emploi sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.

Financement par les actions collectives ou clé en main
Jusqu’à 100% de prise en charge des frais pédagogiques de la formation dans la cadre des actions collectives ou des tarifs négociés avec les actions « clé en main » mises en place par les OPCO. Cliquez sur l’OPCO pour découvrir les modalités financières associées

Horaires
En présentiel, les cours ont lieu de 9h à 12h30 et de 14h à 17h30.
Les participants sont accueillis à partir de 8h45. Les pauses et déjeuners sont offerts.
Pour les stages pratiques de 4 ou 5 jours, quelle que soit la modalité, les sessions se terminent à 15h30 le dernier jour.

Dates et lieux
Sélectionnez votre lieu ou optez pour la classe à distance puis choisissez votre date.
Classe à distance