Hadoop Grundlagen

In diesem Seminar erhalten Sie einen Einblick in die wichtigsten Komponenten des Hadoop-Ökosystems. Sie bekommen einen Überblick über die "Cloudera Distribution for Hadoop" und die zentralen Komponenten HDFS, YARN und MapReduce. Weitere oft genutzte Dienste im Hadoop-Umfeld wie ZooKeeper, Kafka oder Spark werden Sie ebenfalls kennenlernen. Praktische Übungen vertiefen das Gelernte.

Zielgruppe:

Anwendungsentwickler, Administratoren, Systemintegratoren, IT-Architekten, IT-Consultants, Data Engineers, Data Scientists

Voraussetzung:

Teilnahme am Seminar "Unix/Linux Grundlagen für Einsteiger" (BS-01) oder gleichwertige Kenntnisse

Ziele/Nutzen des Seminars:

  • Sie haben einen Überblick über die wichtigsten Komponenten der Cloudera Distribution for Hadoop.
  • Sie haben in Übungen erste Erfahrungen mit deren Komponenten gesammelt.
  • Sie können abschätzen, welche Probleme mit Hadoop gelöst werden können.
  • Sie sind in der Lage, eine Hadoop-Umgebung zu benutzen.

Inhalte:

  • Was ist "Big Data"?
  • Einführung in das Hadoop-Ökosystem
  • Überblick über Cloudera und den Cloudera Manager
  • HDFS, YARN und MapReduce
  • Hive und der Hive Metastore
  • Dateiformate (Parquet, Avro und ORC)
  • ZooKeeper, HBase, Sqoop und Kafka
  • Spark und Spark SQL
  • Praktische Übungen

Termine:

Startdatum Enddatum Seminarort Preis * Teilnehmer Freie Plätze Buchung
04.05.2020 05.05.2020 Online 1.090,00 €
04.05.2020 05.05.2020 Wiesbaden 1.090,00 €
03.08.2020 04.08.2020 Wiesbaden 1.090,00 €
26.10.2020 27.10.2020 Online 1.090,00 €
07.12.2020 08.12.2020 Wiesbaden 1.090,00 €

* alle Preise zzgl. der gesetzlich gültigen Mehrwertsteuer