Cours Spark avec Scala, Python et Java
Spark est le framework Big Data le plus utilisé par les entreprises du monde entier. Pour cette raison, le maîtriser est un grand avantage pour trouver un emploi ou acquérir de meilleurs postes au sein d’une entreprise technologique.
Apprenez Apache Spark pour le Big Data
Dans cette section, nous avons réalisé une compilation de cours dans lesquels le framework Apache Spark est présenté, enseignant comment manipuler de gros volumes de données distribuées en parallèle dans un cluster virtuel.
Les langages utilisés dans les différents cours sont le terminal UNIX ou Windows, Python en passant par l'API Pyspark, Scala et Java.
De nombreux cours incluent une introduction à d'autres applications de l'écosystème Hadoop telles que Hive, Sqoop, Flume ou Kafka.
Ces autres frameworks de l'écosystème Hadoop peuvent se connecter à Spark afin qu'en les combinant, nous puissions trouver une solution à tous les problèmes Big Data que nous rencontrons.
La plupart des cours que nous avons choisis présentent le noyau Spark ainsi que ses composants : SparkSQL, Spark Streaming, Spark MLlib et Graphx.
Dans chacun des cours, nous avons fait une description afin que l'utilisateur puisse savoir s'il s'adapte ou non à ses besoins. De plus, nous avons inclus les objectifs, le programme et un résumé des notes de la plateforme Udemy où ces cours sont dispensés.
Apache Spark avec Scala – Maîtriser le Big Data
Il s'agit du cours Spark in Scala le plus populaire sur la plateforme Udemy. Il est conçu pour les personnes qui souhaitent entrer dans le monde du traitement distribué en utilisant Spark et en programmant avec son langage de programmation natif : scala.
Vous y trouverez une petite introduction théorique sur le fonctionnement de Spark et les types d'objets qu'il utilise pour manipuler les données de manière distribuée sur un système de fichiers distribué tel que HDFS.
Le cours est basé sur la pratique utilisant de grands ensembles de données. Ces données sont traitées à l'aide des différents composants Spark : sparkSQL, Spark Streaming, Spark ML et Graphx.
Une fois le cours d'introduction terminé, la possibilité d'acquérir davantage de cours est offerte pour améliorer et avoir un niveau plus avancé de ces technologies Big Data.
Durée du cours : 9 heures
Dispositifs : ordinateur, téléphones portables et télévision
garantie : 30 jours
langage : Anglais
Les objectifs de ce cours Spark sont :
1. Faites face aux problèmes typiques du Big Data
2. Optimisez les processus Spark grâce à des techniques de partitionnement d'ensembles de données, entre autres
3. Traitez les données en temps réel dans Spark Streaming
4. Utiliser des techniques d'apprentissage automatique sur les données distribuées via MLlib
5. Appliquer des transformations sur les données à l'aide du module SparkSQL
1. Cours initial de programmation à Scala
2. Utilisation des objets Spark RDD
3. Module SparkSQL : trames de données et ensembles de données
4. Exemples d'utilisation de Spark
5. Exécutez Spark sur un cluster de manière distribuée
6. Machine learning avec le composant Spark ML
7. Introduction au traitement des données en temps réel avec Spark Streaming
8. Introduction à GraphX
Ce cours est l'un des meilleurs pour commencer à maîtriser Spark avec Scala. Le professeur Frank Kane donne une explication détaillée des composants Spark les plus importants tels que les RDD, les Dataframes ou les Datasets.
De plus, différents exercices pratiques sont proposés pour consolider les notions enseignées au cours théorique.
Frank Kane est sans aucun doute l'un des meilleurs professeurs avec qui commencer à apprendre dans le monde du Big Data puisqu'il a une longue histoire d'enseignement à des milliers et des milliers d'étudiants du monde entier.
Maîtrisez Apache Spark 2.0 avec Scala
Ce programme Apache Spark avec Scala est conçu pour apprendre les bases de Spark en utilisant Scala comme langage de programmation.
Les effets pratiques sont utilisés pour apprendre à l'étudiant à résoudre des problèmes réels grâce aux technologies Big Data distribuées.
Le cours commence par donner des instructions sur la façon d'installer Java, git et d'autres composants nécessaires pour exécuter Spark. Vous trouverez ci-dessous une brève introduction aux objets RDD et aux avantages de l'utilisation de cette technologie Big Data.
L'utilisation de méthodes pour manipuler des données telles que des filtres, des regroupements ou des mappages est présentée de manière pratique.
Une fois le fonctionnement du noyau Spark introduit, le cours se concentre sur la gestion de grandes quantités de données à l'aide du module SparkSQL où, grâce à des instructions de type SQL, nous pouvons travailler avec de gros volumes de données de manière distribuée.
Durée du cours : 4 heures
Dispositifs : ordinateur, téléphones portables et télévision
garantie : 30 jours
langage : castillan
Certificat d'achèvement
1. Apprenez l'architecture du noyau Spark
2. Utilisation d'opérations sur des objets RDD (Resilient Distributed Datasets)
3. Amélioration des performances grâce aux caches et à la persistance
4. Être capable de faire évoluer les applications sur un cluster Hadoop à l'aide d'Elastic MapReduce
1. Introduction à Apache Spark : installation et configuration du projet
2. Utilisation des RDD : transformations des RDD via des opérations sur les données
3. Architecture et composants Spark
4. Introduction à SparkSQL
5. Spark exécution distribuée dans le cluster
Le contenu de ce cours est adapté pour approfondir l'utilisation d'Apache Spark et SparkSQL dans les clusters distribués. La majorité des étudiants qui ont participé commentent qu'une connaissance de base préalable du langage de programmation Scala et des systèmes d'exploitation tels que Linux est nécessaire car pendant le cours, on suppose que l'étudiant sait programmer dans ce langage.
Spark et Python sur AWS pour le Big Data
Ce cours est conçu pour présenter à l'étudiant l'utilisation des services Amazon Web Server (AWS) avec Apache Spark. Dans ce cas, le langage utilisé est Python au lieu de Scala.
Vous commencez par créer un compte AWS et configurer le notebook Jupyter pour qu'il fonctionne avec la création de la machine virtuelle EC2. La configuration de Spark est également effectuée.
Le cours progresse avec une introduction à Apache Spark. Les transformations qui permettent d'effectuer des données de manière distribuée telles que des filtres, des regroupements ou des mappages sont détaillées.
Ensuite, l'utilisation de SparkSQL est enseignée à travers des commandes similaires à celles des bases de données relationnelles telles que les agrégations et les filtres. Cela permet de traiter les données de manière distribuée et très simple en utilisant le langage naturel.
Enfin, MLlib est introduit, un composant Spark qui permet d'effectuer des techniques statistiques sur un ensemble de données distribuées.
Durée du cours : 4,5 heures
Dispositifs : ordinateur, téléphones portables et télévision
garantie : 30 jours
langage : Espagnol
Certification d'achèvement
1. Découvrez le Big Data et l'informatique parallèle/distribuée
2. Utilisation de SparkSQL et des objets dataframe avec pyspark
3. Utilisation de la bibliothèque MLlib pour créer des modèles statistiques
1. Introduction au Big Data et à Spark
2. Configuration de Spark sur AWS
3. Introduction aux expressions, transformations et actions lambda
4. Importance des RDD et de la valeur-clé
5. Amélioration de l'optimisation avec le cache et la persistance des données
6. Explication et utilisation des dataframes dans SparkSQL
7. Explication et exemples d'utilisation du composant MLlib
En général, les étudiants ayant suivi le cours sont satisfaits de la formation reçue. Ils soulignent qu'il est conçu pour les personnes qui viennent de débuter dans le monde du Big Data puisque les concepts de base sont détaillés.
Il s'appuie essentiellement sur la pratique, même si certains mentionnent qu'il serait intéressant d'ajouter un peu plus de théorie dans la première partie du cours.
La section d'introduction à la bibliothèque d'apprentissage automatique Spark, MLlib, pourrait être étendue puisqu'elle n'inclut qu'un exemple d'utilisation avec régression linéaire lorsque ladite bibliothèque comprend des modèles de clustering, des arbres de décision, entre autres.
Cours Big Data avec Hadoop et Spark à partir de zéro
Il s'agit d'un cours complet qui explique comment utiliser Hadoop et les différents composants de son écosystème tels que Spark, Sqoop, Pig ou Flume, offrant une introduction approfondie aux technologies utilisées dans le secteur du Big Data.
L'étudiant apprendra à configurer l'écosystème d'applications Big Data dans un cluster Cloudera virtualisé. Il est conseillé de connaître les bases du langage de programmation Java puisque tous ces frameworks sont écrits dans ledit langage.
Durée du cours : 4,5 heures
Dispositifs : ordinateur, téléphones portables et télévision
garantie : 30 jours
langage : Espagnol
Certification d'achèvement
1. Apprendre les bases des principaux outils utilisés dans le monde de la data
2. Créer des applications Big Data combinant différentes technologies Big Data telles que Spark ou Hive
3. Traitement de grandes quantités d'informations avec MapReduce
4. Être capable de traiter et de manipuler des données stockées dans un système de fichiers distribué à l'aide de Spark
5. Introduction au gestionnaire de ressources YARN (Yet Another Resource Negoator)
6. Apprenez à stocker des données dans le système de fichiers distribué Hadoop (HDFS)
1. Apprenez à stocker des données dans le système de fichiers distribué Hadoop (HDFS)
2. Gérer les données via HDFS
3. Traitement des données avec les opérations MapReduce
4. Requête de données avec Hive
5. Maîtriser les flux de données avec Apache Flume
6. Traitement des données avec Apache Pig
7. Traitement des données en temps réel avec Spark Streaming
Il s'agit d'un cours auquel plus de 1000 étudiants ont participé à ce jour. Ils soulignent que l'enseignant va droit au but, expliquant les choses les plus importantes sur chaque technologie, parfait pour avoir une vision globale de l'architecture Big Data.
L'enseignant présente le système Hadoop à la distribution Cloudera avec un accent particulier sur Spark. Certains étudiants mentionnent que des exemples plus pratiques seraient nécessaires.
Il est important de consacrer du temps à l'assimilation des scripts de programmation délivrés par l'enseignant afin de garantir que vous assimilez autant que possible le programme enseigné.