master:9000 failed on connection exception: java.net.ConnectException

问题

启动spark standalone cluster的时候:/usr/local/spark/sbin/start-all.sh,显示以下错误:
在这里插入图片描述

原因

只顾着启动spark的start-all.sh了,忘了启动hadoop集群。导致hadoop相应进程没有开启,通过jps查看没有namenode进程。

解决方案

  • 先启动hadoop集群:start-all.sh
    在这里插入图片描述
  • jps命令,确认有namenode进程
    在这里插入图片描述
  • 再启动spark:/usr/local/spark/sbin/start-all.sh
    在这里插入图片描述
  • 成功运行

版权声明:本文为yeziand01原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。