大数据Spark--入门

文章目录

  • Spark 概述
    • Spark 是什么
    • Spark and Hadoop
    • Spark and Hadoop
    • Spark 核心模块
  • Spark 简单上手
    • 创建Maven项目
      • 增加 Scala 插件
      • 增加依赖关系
      • WordCount
      • 异常处理

Spark 概述

Spark 所需资料
链接:https://pan.baidu.com/s/12iaW68vriL6i-xI1kmr0_g?pwd=m4zc
提取码:m4zc

Spark 是什么

Spark 是一种基于内存的快速、通用、可扩展的大数据分析计算引擎。

Spark and Hadoop

  • 首先从时间节点上来看:
    • Hadoop
      • 2006年1月,Doug Cutting加入Yahoo,领导Hadoop的开发
      • 2008年1月,Hadoop成为Apache顶级项目
      • 2011年1.0正式发布
      • 2012年3月稳定版发布
      • 2013年10月发布2.X (Yarn)版本
    • Spark
      • 2009年,Spark诞生于伯克利大学的AMPLab实验室
      • 2010年,伯克利大学正式开源了Spark项目
      • 2013年6月,Spark成为了Apache基金会下的项目
      • 2014年2月,Spark以飞快的速度成为了Apache的顶级项目
      • 2015年至今,Spark变得愈发火爆,大量的国内公司开始重点部署或者使用Spark
  • 从功能上看:
    • Hadoop
      • Hadoop是由java语言编写的,在分布式服务器集群上存储海量数据并运行分布式
        分析应用的开源框架
      • 作为Hadoop 分布式文件系统,HDFS处于Hadoop生态圈的最下层,存储着所有
        的数据,支持着 Hadoop 的所有服务。它的理论基础源于 Google 的TheGoogleFileSystem 这篇论文,它是GFS的开源实现。
      • MapReduce 是一种编程模型,Hadoop根据Google的MapReduce 论文将其实现,
        作为Hadoop 的分布式计算模型,是Hadoop的核心。基于这个框架,分布式并行
        程序的编写变得异常简单。综合了HDFS的分布式存储和MapReduce的分布式计
        算,Hadoop在处理海量数据时,性能横向扩展变得非常容易。
      • HBase是对Google 的Bigtable 的开源实现,但又和Bigtable 存在许多不同之处。
        HBase 是一个基于HDFS的分布式数据库,擅长实时地随机读/写超大规模数据集。
        它也是Hadoop非常重要的组件。
    • Spark
      • Spark是一种由Scala语言开发的快速、通用、可扩展的大数据分析引擎
      • Spark Core 中提供了Spark最基础与最核心的功能
      • Spark SQL是Spark用来操作结构化数据的组件。通过Spark SQL,用户可以使用
        SQL 或者Apache Hive 版本的SQL方言(HQL)来查询数据。
      • Spark Streaming 是 Spark 平台上针对实时数据进行流式计算的组件,提供了丰富的
        处理数据流的API。

Spark and Hadoop

  • Hadoop MapReduce 由于其设计初衷并不是为了满足循环迭代式数据流处理,因此在多
    并行运行的数据可复用场景(如:机器学习、图挖掘算法、交互式数据挖掘算法)中存
    在诸多计算效率等问题。所以Spark应运而生,Spark就是在传统的MapReduce 计算框
    架的基础上,利用其计算过程的优化,从而大大加快了数据分析、挖掘的运行和读写速
    度,并将计算单元缩小到更适合并行计算和重复使用的RDD计算模型。
  • 机器学习中 ALS、凸优化梯度下降等。这些都需要基于数据集或者数据集的衍生数据
    反复查询反复操作。MR这种模式不太合适,即使多MR串行处理,性能和时间也是一
    个问题。数据的共享依赖于磁盘。另外一种是交互式数据挖掘,MR 显然不擅长。而
    Spark 所基于的scala语言恰恰擅长函数的处理。
  • Spark 是一个分布式数据快速分析项目。它的核心技术是弹性分布式数据集(Resilient
    Distributed Datasets),提供了比 MapReduce 丰富的模型,可以快速在内存中对数据集
    进行多次迭代,来支持复杂的数据挖掘算法和图形计算算法。
  • Spark和Hadoop的根本差异是多个作业之间的数据通信问题 : Spark多个作业之间数据
    通信是基于内存,而Hadoop是基于磁盘。
  • Spark Task 的启动时间快。Spark采用fork线程的方式,而Hadoop采用创建新的进程
    的方式。
  • Spark只有在shuffle的时候将数据写入磁盘,而Hadoop中多个MR作业之间的数据交
    互都要依赖于磁盘交互
  • Spark的缓存机制比HDFS的缓存机制高效。

Spark 核心模块

在这里插入图片描述

  • Spark Core
    Spark Core 中提供了 Spark 最基础与最核心的功能,Spark其他的功能如:Spark SQL,Spark Streaming,GraphX, MLlib 都是在 Spark Core 的基础上进行扩展的
  • Spark SQL
    Spark SQL 是 Spark 用来操作结构化数据的组件。通过Spark SQL,用户可以使用SQL或者Apache Hive 版本的SQL方言(HQL)来查询数据。
  • Spark Streaming
    Spark Streaming 是 Spark 平台上针对实时数据进行流式计算的组件,提供了丰富的处理数据流的API。
  • Spark MLlib
    MLlib 是 Spark 提供的一个机器学习算法库。MLlib不仅提供了模型评估、数据导入等额外的功能,还提供了一些更底层的机器学习原语。
  • Spark GraphX
    GraphX 是Spark 面向图计算提供的框架与算法库。

Spark 简单上手

创建Maven项目

增加 Scala 插件

Spark 由 Scala 语言开发的,所以本课件接下来的开发所使用的语言也为Scala,咱们当前使用的Spark版本为3.0.0,默认采用的Scala编译版本为2.12,所以后续开发时。我们依然采用这个版本。开发前请保证IDEA开发工具中含有Scala开发插件(在Plugins中进行下载)

增加依赖关系

<dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.12</artifactId> <version>3.0.0</version> </dependency> 
</dependencies>

WordCount

创建一个WordCount

在该项目路径下创建一个datas包,创建word.txt文件

// 创建Spark运行配置对象 
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("WordCount") // 创建Spark上下文环境对象(连接对象) 
val sc : SparkContext = new SparkContext(sparkConf) // 读取文件数据 
val fileRDD: RDD[String] = sc.textFile("datas/word.txt") // 将文件中的数据进行分词 
val wordRDD: RDD[String] = fileRDD.flatMap( _.split(" ") ) // 转换数据结构 word => (word, 1) 
val word2OneRDD: RDD[(String, Int)] = wordRDD.map((_,1)) // 将转换结构后的数据按照相同的单词进行分组聚合 
val word2CountRDD: RDD[(String, Int)] = word2OneRDD.reduceByKey(_+_) // 将数据聚合结果采集到内存中 
val word2Count: Array[(String, Int)] = word2CountRDD.collect() // 打印结果 
word2Count.foreach(println) //关闭Spark连接 
sc.stop() 

执行过程中,会产生大量的执行日志,如果为了能够更好的查看程序的执行结果,可以在项
目的resources目录中创建log4j.properties文件,并添加日志配置信息:

log4j.rootCategory=ERROR, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n 
# Set the default spark-shell log level to ERROR. When running the spark-shell, the
# log level for this class is used to overwrite the root logger's log level, so that
# the user can have different defaults for the shell and regular Spark apps.
log4j.logger.org.apache.spark.repl.Main=ERROR
# Settings to quiet third party logs that are too verbose
log4j.logger.org.spark_project.jetty=ERROR
log4j.logger.org.spark_project.jetty.util.component.AbstractLifeCycle=ERROR
log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=ERROR
log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=ERROR
log4j.logger.org.apache.parquet=ERROR log4j.logger.parquet=ERROR
# SPARK-9183: Settings to avoid annoying messages when looking up nonexistentUDFs in SparkSQL with Hive support
log4j.logger.org.apache.hadoop.hive.metastore.RetryingHMSHandler=FATAL
log4j.logger.org.apache.hadoop.hive.ql.exec.FunctionRegistry=ERROR

异常处理

如果本机操作系统是Windows,在程序中使用了Hadoop相关的东西,比如写入文件到
HDFS,则会遇到如下异常:

Failed to locate the winutils binary in the hadoop binary path

在资料找到WindowsDep查找对应的hadoop版本

在IDEA中配置Run Configuration,添加HADOOP_HOME变量
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/564580.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

3.24作业

基于UDP的网络聊天室 项目需求&#xff1a; 如果有用户登录&#xff0c;其他用户可以收到这个人的登录信息如果有人发送信息&#xff0c;其他用户可以收到这个人的群聊信息如果有人下线&#xff0c;其他用户可以收到这个人的下线信息服务器可以发送系统信息 服务器端代码 #in…

20.WEB渗透测试--HTTP协议(上)

免责声明&#xff1a;内容仅供学习参考&#xff0c;请合法利用知识&#xff0c;禁止进行违法犯罪活动&#xff01; 内容参考于&#xff1a; 易锦网校会员专享课 上一个内容&#xff1a;19.WEB渗透测试--抓包技术&#xff08;下&#xff09;-CSDN博客 HTTP请求包 HTTP简介 &am…

计算机组成原理-5-输入输出系统

5. 输入输出系统 文章目录 5. 输入输出系统5.1 概述5.1.1 I/O系统的发展概况5.1.2 I/O系统的组成5.1.3 I/O设备与主机的连接5.1.4 I/O设备与主机传送信息的控制方式 5.2 I/O设备5.3 I/O接口5.4 控制方式5.4.1 程序查询方式5.4.2 程序中断方式5.4.3 DMA方式5.4.4 程序中断方式与…

大白话扩散模型(无公式版)

背景 传统的图像生成模型有GAN&#xff0c;VAE等&#xff0c;但是存在模式坍缩&#xff0c;即生成图片缺乏多样性&#xff0c;这是因为模型本身结构导致的。而扩散模型拥有训练稳定&#xff0c;保持图像多样性等特点&#xff0c;逐渐成为现在AIGC领域的主流。 扩散模型 正如…

2024/3/24 LED点阵屏

显示原理&#xff1a; 类似矩阵键盘&#xff0c;逐行or逐列扫描 74HC595是串行 寄存器 感觉就是三转八寄存器 并行&#xff1a;同时输出&#xff1b;串行&#xff1a;一位一位输出 先配置74HC595&#xff0c;重新进行位声明 sbit RCKP3^5; //RCLK sbit SCKP3^6; …

管理类联考–复试–管理类知识–计划

决策是管理的核心&#xff0c;决策是计划的前提&#xff0c;计划是管理的首要职能&#xff0c;战略是一种计划。 #mermaid-svg-rGssnUQtzhGwEUp6 {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-rGssnUQtzhGwEUp6 .e…

Vue3 上手笔记

1. Vue3简介 2020年9月18日&#xff0c;Vue.js发布版3.0版本&#xff0c;代号&#xff1a;One Piece&#xff08;n 经历了&#xff1a;4800次提交、40个RFC、600次PR、300贡献者 官方发版地址&#xff1a;Release v3.0.0 One Piece vuejs/core 截止2023年10月&#xff0c;最…

第十三届蓝桥杯JavaB组省赛真题 - 星期计算

解题思路&#xff1a; 方法一&#xff1a; 20的22次方是一个比较大的数&#xff0c;long和int都装不下这么大的数&#xff0c;因此需要使用下面的方法&#xff0c;如果 a, b, p 都是整数&#xff0c;且 p 是正数&#xff0c;那么&#xff1a;(a * b) % p (a % p * b % p) % …

ensp ppp验证实验(二)

实验拓扑&#xff1a; 1、R1和R2使用PPP链路直连&#xff0c;R2和R3把2条PPP链路捆绑为PPP MP直连 2、按照图示配置IP地址 3、R2对R1的PPP进行单向chap验证 4、R2和R3的PPP进行双向chap验证 实验内容&#xff1a; R1配置&#xff1a; #修改名称 <Huawei>sys Enter …

MySQL5.6.11安装步骤(Windows7 64位)

MySQL5.6.11安装步骤&#xff08;Windows7 64位&#xff09; 1. 下载MySQL Community Server 5.6.21&#xff0c;注意选择系统类型&#xff08;32位/64位&#xff09; 2. 解压MySQL压缩包 将以下载的MySQL压缩包解压到自定义目录下。 3. 添加环境变量 变量名&#xff1a;MYS…

Linux_常见指令_权限理_1

文章目录 一、Linux下的基本指令1.显示文件名 - ls2.显示当前路径 - pwd3.进入目录 - cd4.创建普通文件 - touch5.创建目录 - mkdir6.删除 - rmdir 和 rm7.手册 - man8.拷贝 - cp9.剪切 - mv10.查看短文本 - cat11.查看长文本 - more 和 less12. > (输出重定向)&#xff0c;…

鸿蒙实战开发:【7日天气预报】

先来看一下效果 本项目界面搭建基于ArkUI中TS扩展的声明式开发范式&#xff0c; 数据接口是[和风&#xff08;天气预报&#xff09;]&#xff0c; 使用ArkUI自带的网络请求调用接口。 我想要实现的一个功能是&#xff0c;查询当前城市的实时天气&#xff0c; 目前已实现的功…