Mi az a szikravégrehajtó memória?

Pontszám: 4,7/5 ( 19 szavazat )

A Spark-fürt munkavégző csomópontjának memóriaösszetevői a HDFS-memória, a YARN és más démonok, valamint a Spark-alkalmazások végrehajtói. ... A végrehajtó egy folyamat, amely egy dolgozó csomóponton egy Spark-alkalmazáshoz indul. Minden végrehajtó memória a fonal overhead memória és a JVM kupac memória összege .

Mi az alapértelmezett Spark végrehajtó memória?

Kösz. Most már megértettem, hogy alapértelmezés szerint a végrehajtó számára kiosztott memória mennyisége 1 GB , és ez az érték az --executor-memory opcióval szabályozható.

Hogyan válasszuk ki a végrehajtó memóriát a Sparkban?

A fent tárgyalt ajánlásoknak megfelelően: Rendelkezésre álló végrehajtók száma = (összes magok/végrehajtónkénti magok száma) = 150/5 = 30. 1 végrehajtó meghagyása az ApplicationManager számára => --végrehajtók száma = 29. végrehajtók csomópontonként = 30/10 = 3. Végrehajtónkénti memória = 64 GB/3 = 21 GB.

Hogyan működik a Spark végrehajtó?

A végrehajtók a dolgozó csomópontjainak folyamatai, amelyek egy adott Spark-feladatban az egyes feladatok végrehajtásáért felelősek . A Spark-alkalmazások elején indulnak el, és általában az alkalmazás teljes élettartama alatt futnak. A feladat futtatása után elküldik az eredményeket a vezetőnek.

Mi történik, ha egy Spark végrehajtó meghibásodik?

Ha egy végrehajtó memóriaproblémákba ütközik, meghiúsítja a feladatot, és ott kezdi újra, ahol az utolsó feladat abbamaradt . Ha ez a feladat 3 újrapróbálkozás után meghiúsul (alapértelmezés szerint összesen 4 próbálkozás), akkor az adott szakasz meghiúsul, és a Spark-feladat egésze meghiúsul.

Spark Executor Tuning | Döntse el a végrehajtók számát és a memóriát | Spark bemutató interjúkérdések

44 kapcsolódó kérdés található

Hogyan ellenőrizhetem a Spark-fürtömet?

Nincs lehetőség a spark konfigurációs tulajdonságainak parancssorból történő megtekintésére. Ehelyett szikra-alapértelmezetten ellenőrizheti. conf fájl . Egy másik lehetőség a webUI-ról való megtekintés.

Hogyan változtathatom meg a Spark memóriáját?

Ezt a következő módon teheti meg:
  1. állítsa be a tulajdonságfájlban (alapértelmezett: $SPARK_HOME/conf/spark-defaults.conf ), spark.driver.memory 5g.
  2. vagy a konfigurációs beállítások megadásával futásidőben $ ./bin/spark-shell --driver-memory 5g.

Mennyi memóriára van szüksége egy Spark illesztőprogramnak?

Az illesztőprogram-memória mind azzal függ össze, hogy mennyi adatot fog lekérni a mesternek bizonyos logika kezeléséhez. Ha túl sok adatot kér le egy rdd-vel. collection() az illesztőprogram memóriája elfogy. Az illesztőprogram memóriája általában kicsi, 2-4 GB több mint elég, ha nem küld túl sok adatot rá.

Hogyan figyelhetem meg az illesztőprogramom Spark-memóriáját?

Hozzáférni:
  1. Lépjen az Ügynökök lapra, amely felsorolja a fürt összes dolgozóját.
  2. Válasszon dolgozót.
  3. Válassza a keretrendszert – azt, amelyik a szkript nevével rendelkezik.
  4. Benne lesz egy listája a munkája végrehajtóinak, amelyek ezen a munkáson futnak.
  5. A memóriahasználattal kapcsolatban lásd: Mem (használt / lefoglalt)

Mikor növeljem meg a Spark illesztőprogram-memóriáját?

Ha a Spark SQL-jét használja, és az illesztőprogram OOM a broadcast kapcsolatok miatt , akkor vagy növelheti az illesztőprogram memóriáját, ha lehetséges; vagy pedig csökkenti a „szikrát. sql. autoBroadcastJoinThreshold” értéket, így az összekapcsolási műveletek a memóriabarátabb rendezési egyesítési csatlakozást fogják használni.

Hogyan ellenőrizhetem a Spark tulajdonságait?

A Spark tulajdonságainak megtekintése Az alkalmazás webes felhasználói felülete a http://<driver>:4040 címen felsorolja a Spark tulajdonságait a „Környezet” lapon. Ez egy hasznos hely, ahol ellenőrizheti, hogy a tulajdonságok megfelelően vannak-e beállítva. Ne feledje, hogy csak a spark-defaultokon keresztül kifejezetten megadott értékek.

Hogyan szerezhetek Spark tulajdonságokat?

A Spark konfigurációs tulajdonságainak lekérése
  1. Piton. Másolás szikra. konf. get("spark.<tulajdonnév>")
  2. R. Könyvtár (SparkR) másolása sparkR.conf("spark.<tulajdonnév>")
  3. Scala. Másolás szikra. konf. get("spark.<tulajdonnév>")
  4. SQL. Másolás GET spark.< tulajdonság-név>;

Hogyan szerezhetem be a Spark konfigurációját?

A Spark/PySparkban a spark elérésével lekérheti az aktuális aktív SparkContextet és annak konfigurációs beállításait. szikraContext. getConf. getAll() , itt a spark a SparkSession objektuma, és a getAll() az Array[(String, String)] értékét adja vissza, lássuk példákkal a Spark és a Scala & PySpark (Spark with Python) használatát.

Honnan tudhatom, hogy a szikramunkám meghiúsult?

Ha egy Spark-feladat vagy alkalmazás meghiúsul, a Spark-naplók segítségével elemezheti a hibákat... A Keresési előzmények oldal az alábbi ábrán látható módon jelenik meg.
  1. Írja be a parancsazonosítót a Parancsazonosító mezőbe, és kattintson az Alkalmaz gombra.
  2. Kattintson a Naplók vagy az Erőforrások fülre.
  3. Kattintson a Spark Application UI hivatkozásra.

Mi történik a Spark alkalmazással, ha az illesztőprogram leáll?

Amikor az illesztőprogram-folyamat meghiúsul, az önálló/fonal/mezos klaszterben futó összes végrehajtó is megsemmisül, a memóriájukban lévő adatokkal együtt . A Spark Streaming esetében a Kafka és a Flume forrásokból kapott összes adat pufferelve van a végrehajtók memóriájában, amíg a feldolgozás be nem fejeződik.

Honnan tudhatom, hogy működik-e a szikrám?

2 válasz
  1. Nyissa meg a Spark shell terminált, és írja be a parancsot.
  2. sc.version Vagy spark-submit --version.
  3. A legegyszerűbb módja a „spark-shell” elindítása a parancssorban. Megjeleníti a.
  4. A Spark jelenlegi aktív verziója.

Mi az a SparkConf Spark?

A SparkConf a Spark-alkalmazás konfigurációjának megadására szolgál . Ez a Spark-alkalmazás paramétereinek kulcs-érték párokkénti beállítására szolgál. Például, ha új Spark alkalmazást hoz létre, bizonyos paramétereket a következőképpen adhat meg: val conf = new SparkConf()

Hogyan szerezhetem be a Spark UI-t?

Ha a Spark alkalmazást helyileg futtatja, a Spark UI a http://localhost:4040/ címen érhető el. A Spark UI alapértelmezés szerint a 4040-es porton fut, és az alatta található néhány további felhasználói felület, amelyek hasznosak lehetnek a Spark alkalmazás nyomon követésében.

Mi az a Spark illesztőprogram?

A szikravezérlő az a program, amely deklarálja az adatok RDD-n történő átalakításait és műveleteit, és elküldi az ilyen kéréseket a mesternek . Gyakorlatilag az illesztőprogram az a program, amely létrehozza a SparkContextet, és csatlakozik egy adott Spark Masterhez.

Mi az a szikrahéj?

A Spark shell egy interaktív héj, amellyel megtanulhatja, hogyan hozhatja ki a legtöbbet az Apache Sparkból . ... a spark-shell a Scala REPL kiterjesztése a SparkSession automatikus példányosításával sparkként (és a SparkContext mint sc ).

Hogyan működik az Apache spark?

Az Apache Spark egy nyílt forráskódú, általános célú elosztott számítástechnikai motor, amelyet nagy mennyiségű adat feldolgozására és elemzésére használnak. Csakúgy, mint a Hadoop MapReduce, ez is együttműködik a rendszerrel, hogy elosztja az adatokat a fürtben, és párhuzamosan dolgozza fel az adatokat . ... Minden végrehajtó külön java folyamat.

Miért lassúak vagy hibásak a Spark-alkalmazások, 2. rész?

A Garbage Collection Spark a Java virtuális gépen (JVM) fut. Mivel a Spark nagy mennyiségű adatot képes tárolni a memóriában , nagymértékben támaszkodik a Java memóriakezelésére és szemétgyűjtésére (GC). Ezért a szemétgyűjtés (GC) komoly probléma lehet, amely számos Spark-alkalmazást érinthet.

Hogyan ellenőrizhetem a Spark-naplóimat?

Megtekintheti az összes futó Spark-alkalmazás áttekintését.
  1. Nyissa meg a YARN-alkalmazások oldalt a Cloudera Manager felügyeleti konzoljában.
  2. A YARN-on futó Spark-alkalmazások hibakereséséhez tekintse meg a NodeManager szerepkör naplóit. ...
  3. Az eseményfolyam szűrése.
  4. Bármely esemény esetén kattintson a Naplófájl megtekintése elemre a teljes naplófájl megtekintéséhez.

Mi a különbség a végrehajtó memória és az illesztőprogram memória között?

A végrehajtók a dolgozó csomópontjainak folyamatai, amelyek egy adott Spark-feladatban az egyes feladatok végrehajtásáért felelősek, és a Spark-illesztőprogram az a program, amely deklarálja az adatok átalakításait és műveleteit az RDD-ken, és elküldi az ilyen kéréseket a mesternek.