たそらぼ

日頃思ったこととかメモとか。

Sparkで"使い方が誤っています"でJavaが読み込めない。

Sparkを勉強するのに、spark-3.0.0-bin-hadoop2.7.tgzをダウンロードして、pysparkでshellを起動しようとしたが、
以下のような感じのエラーで起動できなかったのでメモ。
pipでpysparkを入れてpythonからimportしても同様。

\Java\jdk-12.0.1\bin\java の使い方が誤っています。

環境

  • windows10
  • jdk-12.0.1
  • spark-3.0.0-bin-hadoop2.7.tgz

解決策

JDKのパスにスペースが入っていたので、場所を変え、PathとJAVAHOMEを直したところ読み込めた。

ダメ
f:id:tasotasoso:20200801133129p:plain

良い
f:id:tasotasoso:20200801133157p:plain