Gleiches Problem wie Fehler beim Start von Master für Funken in Windows 10 , der ebenfalls nicht gelöst wird.
Mein Funke funktioniert gut, indem ich pyspark.cmd und spark-Shell.cmd teste
Nach dem Lauf von .\sbin\start-master.sh
bekam ich:
ps: unknown option -- o
Try 'ps --help' for more information.
starting org.Apache.spark.deploy.master.Master, logging to C:\spark-1.6.1-bin-hadoop2.6/logs/spark--org.Apache.spark.deploy.master.Master-1-%MY_USER_NAME%-PC.out
ps: unknown option -- o
Try 'ps --help' for more information.
failed to launch org.Apache.spark.deploy.master.Master:
========================================
Picked up _Java_OPTIONS: -Xmx512M -Xms512M
full log in C:\spark-1.6.1-bin-hadoop2.6/logs/spark--org.Apache.spark.deploy.master.Master-1-%MY_USER_NAME%-PC.out
Ich habe versucht, die Web-Benutzeroberfläche zu besuchen, während der localhost: 4040 den localhost bearbeitet: 8080 ist nicht erreichbar.
Und ich habe festgestellt, dass die .log-Datei im Ordner% SPARK_HOME%/logs erstellt wurde. Sie enthalten den gleichen Inhalt:
Spark-Befehl:
C:\Program Files\Java\jdk1.7.0_79\bin\Java -cp C:\spark-1.6.1-bin-hadoop2.6/conf\;C:\spark-1.6.1-bin-hadoop2.6/lib/spark-Assembly-1.6.1-hadoop2.6.0.jar;C:\spark-1.6.1-bin-hadoop2.6\lib\datanucleus-api-jdo-3.2.6.jar;C:\spark-1.6.1-bin-hadoop2.6\lib\datanucleus-core-3.2.10.jar;C:\spark-1.6.1-bin-hadoop2.6\lib\datanucleus-rdbms-3.2.9.jar -Xms1g -Xmx1g -XX:MaxPermSize=256m org.Apache.spark.deploy.master.Master --ip hahaha-PC --port 7077 --webui-port 8080
========================================
Picked up _Java_OPTIONS: -Xmx512M -Xms512M
Arbeitsumgebung: Spark: 1.6.1 Windows 10
Wir freuen uns auf Ihre Antwort und vielen Dank für Ihre Zeit!
Antwort hier gefunden: https://spark.Apache.org/docs/1.2.0/spark-standalone.html
"Hinweis: Die Startskripts unterstützen derzeit kein Windows. Um einen Spark-Cluster unter Windows auszuführen, starten Sie den Master und die Worker manuell."
Die Startscripts unter %SPARK_HOME%\sbin
unterstützen Windows nicht. Sie müssen den Master und den Worker wie unten beschrieben manuell ausführen.
Wechseln Sie in einer Eingabeaufforderung zum Ordner %SPARK_HOME%\bin
Führen Sie spark-class org.Apache.spark.deploy.master.Master
aus, um den Master auszuführen. Dadurch erhalten Sie eine URL des Formulars spark://ip:port
.
Führen Sie spark-class org.Apache.spark.deploy.worker.Worker spark://ip:port
aus, um den Worker auszuführen. Stellen Sie sicher, dass Sie die in Schritt 2 erhaltene URL verwenden.
Führen Sie spark-Shell --master spark://ip:port
aus, um eine Anwendung mit dem neu erstellten Cluster zu verbinden.
Wenn Sie den Master Worker und die Slaves starten möchten, sollte dies für Sie funktionieren. Für mich geht das
spark-class org.Apache.spark.deploy.master.Master
Sie müssen Ihren Browser auf http: // localhost: 8080/ zeigen. Wenn die Fehlermeldung "Server nicht gefunden" angezeigt wird, aktualisieren Sie die Seite. Auf dieser Seite erhalten Sie Ihre eindeutige URL. sieht wie folgt aus: spark: //192.xxx.xx.xxx: 7077
spark-class org.Apache.spark.deploy.worker.Worker spark: // ip: port
Dieser Teil
spark: // ip: portist die aus Schritt 1 erhaltene URL. Aktualisieren Sie die in Schritt 1 geöffnete Browser-Registerkarte, um zu sehen, ob der Worker gestartet wurde.
HINWEIS: JDK 1.9 wird nicht unterstützt
Nach der Ausführung von spark-class org.Apache.spark.deploy.master.Master gehen Sie einfach zu http: // localhost: 8080 , um ip: port zu erhalten. Öffnen Sie dann eine weitere Befehlsshell, um die funk-Klasse org.Apache.spark.deploy.worker.Worker spark: // IP: PORT auszuführen
ein kleiner Trick sollte helfen. Ich habe den Java_HOME-Pfad in die DOS-Version geändert: c:\Progra ~ 1\Java\jre1.8.0_131 zum Beispiel dann neu gestartet. Danach konnte ich laufen Der oben erwähnte Befehl spark-class org.Apache ....