preguntar acerca de yarn

6
réponses

Qu’est-ce que le mode yarn-client dans Spark?

Apache Spark a récemment mis à jour la version 0.8.1, dans laquelle le mode yarn-client est disponible. Ma question Est, qu'est-ce que le mode yarn-client signifie vraiment? Dans la documentation il est dit: Avec le mode yarn-client, l'applicatio …
demandé sur 1970-01-01 00:33:33
8
réponses

Hadoop: la connexion à ResourceManager a échoué

après avoir installé hadoop 2.2 et essayé de lancer pipes exemple j'ai eu l'erreur suivante (la même erreur apparaît après avoir essayé de lancer hadoop jar hadoop-mapreduce-examples-2.2.0.jar wordcount someFile.txt /out): /usr/local/hadoop$ hadoop …
demandé sur 1970-01-01 00:33:33
2
réponses

Spark Pi exemple en mode Cluster avec fil: Association perdue

j'ai trois machines virtuelles fonctionnant comme cluster à étincelles distribuées. J'utilise Spark 1.3.0 avec un Hadoop 2.6.0 sous-jacent. Si je lance l'Étincelle Pi exemple /usr/local/spark130/bin/spark-submit --class org.apache.sp …
demandé sur 1970-01-01 00:33:35
1
réponses

Pourquoi une JVM déclare — t-elle plus de mémoire engagée que la taille de l’ensemble des résidents du processus linux?

lors de l'exécution D'une application Java (en fil) avec suivi de mémoire natif activé ( -XX:NativeMemoryTracking=detail voir https://docs.oracle.com/javase/8/docs/technotes/guides/vm/nmt-8.html et https://docs.oracle.com/javase/8/docs/technote …
demandé sur 1970-01-01 00:33:35
3
réponses

Hadoop namenode: point de défaillance unique

le Namenode dans l'architecture Hadoop est un point de défaillance unique. Comment font les gens qui ont de gros clusters Hadoop faire face à ce problème?. y a-t-il une solution acceptée par l'industrie qui a bien fonctionn …
demandé sur 1970-01-01 00:33:30
2
réponses

Comment savoir quelle est la raison de la fermeture Desexceptions à manchon en mode client filé?

j'ai essayé d'exécuter spark-shell en mode fils client , mais j'obtiens beaucoup d'erreurs ClosedChannelException . J'utilise la construction spark 2.0.0 Pour Hadoop 2.6. voici les exceptions: $ spark-2.0.0-bin-hadoop2.6/bin/spark-she …
demandé sur 1970-01-01 00:33:36
6
réponses

Le conteneur dépasse les limites de mémoire

dans Hadoop v1, j'ai assigné chaque 7 fente mapper et réducteur avec la taille de 1 Go, mes mappers & réducteurs fonctionne très bien. Ma machine a 8g de mémoire, 8 processeurs. Maintenant avec le fil, quand exécuter la même application sur la m …
demandé sur 1970-01-01 00:33:34