如何使用pyspark统计词频?

使用spark统计词频
from pyspark import SparkContextsc = SparkContext('local', "WordCount")data=["mixlab", "mixlab 无界 社区","mixlab 让 每个人 无限 可能 跨界 设计师 全栈 程序员 算法 工程师","shadow","hello shadow"]
lines = sc.parallelize(data)result = lines.flatMap(lambda x: x.split(" ")).countByValue()
for key, value in result.items(): print("%s %i" % (key, value)) 处理结果
mixlab 3无界 1社区 1让 1每个人 1无限 1可能 1跨界 1设计师 1全栈 1程序员 1算法 1工程师 1shadow 2hello 1x = sc.parallelize([1,2,3])y = x.flatMap(lambda x: (x+1,300*x,x/2))print(x.collect())print(y.collect())
#[1, 2, 3]#[2, 300, 0.5, 3, 600, 1.0, 4, 900, 1.5]"AB","B","B"])y = x.countByValue()print(x.collect())print(y)
#['AB', 'B', 'B']#{'AB': 1, 'B': 2}统计一个RDD中各个value的出现次数。返回一个map,map的key是元素的值,value是出现的次数。
统计词频的技能你get了吗?可以加入mixlab无界社区交流~
赞 (0)
