Hadoop Grundlagen

In diesem Seminar erhalten Sie einen Einblick in die wichtigsten Komponenten des Hadoop-Ökosystems. Sie bekommen eine Einführung in die zentralen Hadoop-Komponenten HDFS, YARN und MapReduce. Darauf aufbauend lernen Sie weitere wichtige Dienste aus dem Hadoop-Umfeld kennen. Dazu zählen Hive, Spark, HBase, Kafka und ZooKeeper. Viele praktische Übungen vertiefen das Gelernte.

Zielgruppe:

Anwendungsentwickler, Administratoren, Systemintegratoren, IT-Architekten, IT-Consultants, Data Engineers, Data Scientists

Voraussetzung:

Teilnahme am Seminar "Unix/Linux Grundlagen für Einsteiger" (BS-01) oder vergleichbare Kenntnisse.

Ziele/Nutzen des Seminars:

  • Sie bekommen einen Überblick über die wichtigsten Hadoop Komponenten.
  • Sie haben in Übungen erste Erfahrungen mit Hadoop gesammelt.
  • Sie können abschätzen, welche Probleme mit Hadoop gelöst werden können.
  • Sie sind in der Lage, eine Hadoop-Umgebung zu benutzen.

Inhalte:

  • Einführung in das Hadoop-Ökosystem
  • Überblick über Cloudera und den Cloudera Manager
  • HDFS, YARN und MapReduce
  • Hive und der Hive Metastore
  • Dateiformate (z.B. Parquet, Avro und ORC)
  • Spark und Spark SQL
  • ZooKeeper
  • HBase
  • Sqoop
  • Kafka

* alle Preise zzgl. der gesetzlich gültigen Mehrwertsteuer