问题
启动spark standalone cluster的时候:/usr/local/spark/sbin/start-all.sh,显示以下错误:
原因
只顾着启动spark的start-all.sh了,忘了启动hadoop集群。导致hadoop相应进程没有开启,通过jps查看没有namenode进程。
解决方案
- 先启动hadoop集群:
start-all.sh
- jps命令,确认有namenode进程

- 再启动spark:
/usr/local/spark/sbin/start-all.sh
- 成功运行
版权声明:本文为yeziand01原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。