From 19ef38f5b6efd913c735ed06f9e9cec4f5c5f1d3 Mon Sep 17 00:00:00 2001 From: Martin Schultz <m.schultz@fz-juelich.de> Date: Wed, 30 Nov 2022 12:59:59 +0100 Subject: [PATCH] minor fixes --- "de/01-Design-patterns-f\303\274r-grosse-Datenmengen.ipynb" | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git "a/de/01-Design-patterns-f\303\274r-grosse-Datenmengen.ipynb" "b/de/01-Design-patterns-f\303\274r-grosse-Datenmengen.ipynb" index e5eeed2..4d5066d 100644 --- "a/de/01-Design-patterns-f\303\274r-grosse-Datenmengen.ipynb" +++ "b/de/01-Design-patterns-f\303\274r-grosse-Datenmengen.ipynb" @@ -552,7 +552,7 @@ "\n", "_Original Paper: Jeffrey Dean Sanjay Ghemawat (2004): MapReduce: Simplified Data Processing on Large Clusters, OSDI'04: Sixth Symposium on Operating System Design and Implementation, San Francisco, CA (2004), pp. 137-150._\n", "\n", - "Die Resourcenverwaltung obliegt __YARN__, das aus einem __ResourceManager__ für das Gesamtsystem, jeweils einem __NodeManager__ pro Cluster-Knoten und jeweils einem __MRAppMaster__ pro Anwendung besteht. Jede MapReduce Anwendung wird durch eine Konfigursation beschrieben, die zumindest die Input- und Outputdaten spezifiziert und die auszuführenden __map__ und __reduce__ Kommandos. YARN übernimmt das Scheduling, überwacht die Ausführung der einzelnen Tasks und startet abgebrochene Jobs erneut falls nötig. Hadoop ist damit vor allem für Batch-Anwendungen ausgelegt. Die Berechnungen werden möglichst dort ausgeführt, wo die Daten liegen, so dass unnötige Datentransfers vermieden werden.\n" + "Die Resourcenverwaltung obliegt __YARN__, das aus einem __ResourceManager__ für das Gesamtsystem, jeweils einem __NodeManager__ pro Cluster-Knoten und jeweils einem __MRAppMaster__ pro Anwendung besteht. Jede MapReduce Anwendung wird durch eine Konfiguration beschrieben, die zumindest die Input- und Outputdaten spezifiziert und die auszuführenden __map__ und __reduce__ Kommandos. YARN übernimmt das Scheduling, überwacht die Ausführung der einzelnen Tasks und startet abgebrochene Jobs erneut falls nötig. Hadoop ist damit vor allem für Batch-Anwendungen ausgelegt. Die Berechnungen werden möglichst dort ausgeführt, wo die Daten liegen, so dass unnötige Datentransfers vermieden werden.\n" ] }, { -- GitLab