preguntar acerca de yarn
6
réponses
Qu’est-ce que le mode yarn-client dans Spark?
Apache Spark a récemment mis à jour la version 0.8.1, dans laquelle le mode yarn-client est disponible. Ma question Est, qu'est-ce que le mode yarn-client signifie vraiment? Dans la documentation il est dit:
Avec le mode yarn-client, l'applicatio …
demandé sur
1970-01-01 00:33:33
8
réponses
Hadoop: la connexion à ResourceManager a échoué
après avoir installé hadoop 2.2 et essayé de lancer pipes exemple j'ai eu l'erreur suivante (la même erreur apparaît après avoir essayé de lancer hadoop jar hadoop-mapreduce-examples-2.2.0.jar wordcount someFile.txt /out):
/usr/local/hadoop$ hadoop …
demandé sur
1970-01-01 00:33:33
2
réponses
Spark Pi exemple en mode Cluster avec fil: Association perdue
j'ai trois machines virtuelles fonctionnant comme cluster à étincelles distribuées. J'utilise Spark 1.3.0 avec un Hadoop 2.6.0 sous-jacent.
Si je lance l'Étincelle Pi exemple
/usr/local/spark130/bin/spark-submit
--class org.apache.sp …
demandé sur
1970-01-01 00:33:35
1
réponses
Pourquoi une JVM déclare — t-elle plus de mémoire engagée que la taille de l’ensemble des résidents du processus linux?
lors de l'exécution D'une application Java (en fil) avec suivi de mémoire natif activé ( -XX:NativeMemoryTracking=detail voir https://docs.oracle.com/javase/8/docs/technotes/guides/vm/nmt-8.html et https://docs.oracle.com/javase/8/docs/technote …
demandé sur
1970-01-01 00:33:35
3
réponses
Hadoop namenode: point de défaillance unique
le Namenode dans l'architecture Hadoop est un point de défaillance unique.
Comment font les gens qui ont de gros clusters Hadoop faire face à ce problème?.
y a-t-il une solution acceptée par l'industrie qui a bien fonctionn …
demandé sur
1970-01-01 00:33:30
2
réponses
Comment savoir quelle est la raison de la fermeture Desexceptions à manchon en mode client filé?
j'ai essayé d'exécuter spark-shell en mode fils client , mais j'obtiens beaucoup d'erreurs ClosedChannelException . J'utilise la construction spark 2.0.0 Pour Hadoop 2.6.
voici les exceptions:
$ spark-2.0.0-bin-hadoop2.6/bin/spark-she …
demandé sur
1970-01-01 00:33:36
6
réponses
Le conteneur dépasse les limites de mémoire
dans Hadoop v1, j'ai assigné chaque 7 fente mapper et réducteur avec la taille de 1 Go, mes mappers & réducteurs fonctionne très bien. Ma machine a 8g de mémoire, 8 processeurs.
Maintenant avec le fil, quand exécuter la même application sur la m …
demandé sur
1970-01-01 00:33:34