原因
开始学习Spark的时候,遇到这个问题,经过去网上了解,发现是Scala的版本不一样,与本地的版本不同导致的。
解决办法
- 首先了解你的Scala的版本,
win+r输入cmd,输入指令scala,查看Scala版本
- 了解到Scala的版本之后,回到Idea,找到
File ->Project Structure这个选项
- 进入设置之后,找到
Global Libraries,点击减号删除当前的Scala-sdk,完成后点击加号,重新加在Scala-sdk,当然版本号就选择你安装的的那个,没有的话就选择DownLoad下载一个,之后部署到你要放的项目就可以了

版权声明:本文为weixin_52725999原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。