Dokáže Spark čítať lokálne súbory?
Dokáže Spark čítať lokálne súbory?

Video: Dokáže Spark čítať lokálne súbory?

Video: Dokáže Spark čítať lokálne súbory?
Video: Высокая плотность 2022 г. 2024, November
Anonim

Zatiaľ čo Spark podporuje načítanie súbory z miestne súborový systém, vyžaduje, aby súbory sú dostupné na rovnakej ceste na všetkých uzloch vo vašom klastri. Niektoré sieťové súborové systémy, ako napríklad NFS, AFS a vrstva NFS MapR, sú používateľovi vystavené ako bežný súborový systém.

Následne sa možno spýtať, ako spustím iskru v lokálnom režime?

In lokálny režim , iskra pracovných miest behať na jednom počítači a sú vykonávané paralelne pomocou multi-threadingu: toto obmedzuje paralelizmus (najviac) na počet jadier vo vašom počítači. Komu behať pracovné miesta v lokálny režim , musíte si najprv rezervovať stroj cez SLURM v interaktívnom režim a prihláste sa do nej.

Okrem vyššie uvedeného, čo je SC textFile? textový súbor je metóda org. apache. SparkContext trieda, ktorá znie a textový súbor z HDFS, lokálneho súborového systému (dostupného na všetkých uzloch) alebo z ľubovoľného URI súborového systému podporovaného Hadoopom a vrátiť ho ako RDD reťazcov.

Čo je v tomto ohľade iskrový súbor?

The Spark File je dokument, kde si uchováte všetku svoju tvorivú dobrotu. Definoval ju autor Stephen Johnson. Takže namiesto toho, aby ste si uprostred noci škrabali poznámky na Post-it® alebo venovali nápadom rôzne časopisy, dáte všetky svoje koncepty do jedného súbor.

Čo je paralelná zberná iskra?

Operácie s distribuovanými súbormi údajov popíšeme neskôr. Paralelizované zbierky sú vytvorené volaním JavaSparkContext 's paralelizovať metóda na existujúcom Zbierka vo vašom programe ovládača. Prvky z zber sú skopírované, aby vytvorili distribuovaný súbor údajov, ktorý možno prevádzkovať paralelne.

Odporúča: