使用Pycharm开发WordCount程序

创建工程

1632913-20190323095027344-139569237.png

设置虚拟机Python解释器环境

1632913-20190323095039182-228438224.png

1632913-20190323095055096-199612764.png

注意:解释器应该选择:/home/hadoop/anaconda3/bin/python3.7,这样依赖的库都有了。

创建一个python文件,取名为WordCount

1632913-20190323095111522-315369234.png

开发WordCount程序

from pyspark import SparkConf, SparkContext

conf = SparkConf().setAppName("WordCount").setMaster("local")
sc = SparkContext(conf=conf)

inputFile = "/home/hadoop/252/input/data.txt"  
textFile = sc.textFile(inputFile)

wordCount = textFile.flatMap(lambda line: line.split(" ")).map(lambda word: (word, 1)).reduceByKey(lambda x, y: x + y)

wordCount.foreach(print)

1632913-20190323095121709-1507032153.png

设置配置Run的参数

【Run】→【Edit Configurations】配置Environment Variables 参数

1632913-20190323095132509-993023662.png

运行程序

在代码中【右键】--【Run ‘Wordcount’】

1632913-20190323095144553-1050862957.png

转载于:https://www.cnblogs.com/jiajiaba/p/10582650.html