Formation Spark

Cette formation Spark s’adresse aux développeurs et architectes souhaitant développer des applications pour le Big Data

Cette formation permet aux développeurs et architectes d’écrire simplement des applications distribuées complexes qui permettent de prendre des meilleurs décisions plus rapidement et des actions en temps réels, appliquées à une grande variété de cas d’utilisations, d’architectures et de secteurs d’activités.

Bulletin d’
inscription
 Demande de
devis
  Détail du
programme

Programme de la formation Spark

  • Présentation d’Apache Spark
    • Historique du Framework
    • Les différentes versions de Spark (Scala, Python et Java)
    • Comparaison avec l’environnement Apache Hadoop
    • Les différents modules de Spark
  • Programmer avec les Resilient Distributed Dataset (RDD)
    • Présentation des RDD
    • Créer, manipuler et réutiliser des RDD
    • Accumulateurs et variables broadcastées
    • Utiliser des partitions
  • Manipuler des données structurées avec Spark SQL
    • SQL, DataFrames et Datasets
    • Les différents types de sources de données
    • Interopérabilité avec les RDD
    • Performance de Spark SQL
    • JDBC/ODBC server et Spark SQL CLI
  • Spark sur un cluster
    • Les différents types d’architecture : Standalone, Apache Mesos ou Hadoop Yarn
    • Configurer un cluster en mode Standalone
    • Packager une application avec ses dépendances
    • Déployer des applications avec Spark-sumit
    • Dimensionner un cluster
  • Analyser en temps réel avec Spark Streaming
    • Principe de fonctionnement
    • Présentation des Discretized Streams (DStreams)
    • Les différents types de sources
    • Manipulation de l’API
    • Comparaison avec Apache Storm
  • Niveau : Spécialisation
  • Ref : SPA1
  • Durée : 2 jours
  • Prix : 1395€
  • Niveau : Spécialisation
  • Ref : SPA1
  • Durée : 2 jours
  • Prix : à définir
organiser votre formation

Objectifs

  • Maîtriser les concepts fondamentaux de Spark
  • Développer des applications avec Spark Streaming
  • Faire de la programmation parallèle avec Spark sur un cluster
  • Exploiter des données avec Spark SQL
  • Avoir une première approche du Machine Learning

Public

  • Développeurs
  • Architectes

Pré-requis

  • Bonnes connaissances du langage Java
Pré-inscription
Nous proposons
Consulting
Formation