2020-08-01 Sparkで"使い方が誤っています"でJavaが読み込めない。 tips Sparkを勉強するのに、spark-3.0.0-bin-hadoop2.7.tgzをダウンロードして、pysparkでshellを起動しようとしたが、 以下のような感じのエラーで起動できなかったのでメモ。 pipでpysparkを入れてpythonからimportしても同様。 \Java\jdk-12.0.1\bin\java の使い方が誤っています。 環境 windows10 jdk-12.0.1 spark-3.0.0-bin-hadoop2.7.tgz 解決策 JDKのパスにスペースが入っていたので、場所を変え、PathとJAVAHOMEを直したところ読み込めた。ダメ 良い 参考 spark.apache.orgwww.oreilly.co.jp