实验10:Spark基础编程2
- 实验目的
- 通过实验掌握基Scala的Spark编程方法;
- 掌握基于Spark和Scala编程解决一些基本的数据处理和统计分析,去重、排序等;
- 实验要求
- 掌握Spark基于Scala编写应用程序的方法;
- 完成下面的实验内容,实现数据信息的处理分析;
- 实验平台
- 操作系统:Linux(建议Ubuntu16.04或者CentOS 7 以上);
- Spark版本:2.4.0;
- Maven:3.6.3;
- JDK版本:1.8;
- Java IDE:Eclipse。
- 实验内容、结果及分析(直接在题目后面列出实验过程、结果以及分析)
启动IntelliJ Idea并创建spark项目,导入spark的jar包到项目
- WordCount
- 在本地创建一个文本文件以“学号sparktest.txt”命名,向其中各输入一个长篇英语文章,将其上传至hadoop中的分布式文件系统中/input/学号文件夹中;
- 编写基于Spark的WordCount scala应用程序,进行单词统计并按照单词频数由大到小输出统计结果(sortBy操作,代码以截图方式呈现并标注重点代码);
2.1将22111303195shakestest.txt拷贝到项目的resources目录下。
2.2编写spark代码:
2.3 运行测试输出:
(1)打印单词统计结果:
- 打印单词总数:
- 编写pom文件;
- 打包应用程序并列出打包结果;
4.1部署分布式Spark应用程序
在生产环境中,Spark通常会处理存储在HDFS等分布式文件系统中的数据。Spark通常也以集群模式运行。
修改源代码如下:
打包文件
执行作业:
使用spark-submit运行我们的代码。我们需要指定主类、要运行的jar和运行模式(集群),且主机名为instance-00000868执行:
此时遇到问题:
检查:
确保端口监听:在 IP 地址 172.17.0.2 上的 7077 端口正在被监听。
解决以上问题后重新执行命令出现新问题:
解决以上问题后,运行
出现报错:
检查:
- 检查 Spark Master 状态:
检查结果:Spark Master 服务正在运行,并且监听在正确的端口上。
2、检查端口占用
使用 netstat 命令检查端口占用:
检查结果:端口 9000 没有被其他服务占用。
- 运行Word Count程序(包含Scala代码运行成功截图);
- 修改2)中的程序,使得单词统计按照单词出现的次数降序排序,输出统计结果(代码以截图方式呈现并标注重点代码,并附上成功运行结果截图);
运行结果:
- 成绩统计
每个输入文件表示班级学生某个学科的成绩,每行内容由两个字段组成,第一个是学生名字,第二个是学生的成绩;输入文件样例如下,供参考。
Algorithm.txt:
Xiaoming 92
Xiaohong 87
Xiaoxin 82
Xiaoli 90
Database.txt:
Xiaoming 95
Xiaohong 81
Xiaoxin 89
Xiaoli 85
Python.txt:
Xiaoming 82
Xiaohong 83
Xiaoxin 94
Xiaoli 91
- 新建三个成绩文件,并输入对应的成绩数据,将三个成绩文件上传至HDFS中/input/学号文件夹中;
1.1在本地data/dataset创建文件:
1.2上传导hdfs中input/22111303195/目录,并查看:
- 编写 Spark Scala 独立应用程序求出所有学生以及平均成绩信息,并根据成绩降序输出统计结果,最后将统计结果存储在HDFS的/output/学号文件夹中(代码以截图方式呈现并标注重点代码,下面代码供参考使用);
本地运行输出:
- 打包运行程序,并列出运行结果;
- 实验小结(问题和收获)
学习曲线:最初对 Spark 的分布式计算模型和编程模型不太熟悉,但通过实验逐渐理解了其工作原理。问题解决:在实验过程中遇到了连接和配置问题,通过查阅文档和社区支持得以解决,增强了解决问题的能力。性能优势:体会到了 Spark 在处理大规模数据时的性能优势,尤其是在分布式环境中。工具掌握:通过实验,熟悉了 spark-submit 命令的使用,以及如何在集群模式下运行 Spark 应用程序。