【Spark | Spark-Core篇】转换算子Transformation
1. Value类型
1.1 map映射
参数f是一个函数可以写作匿名子类,它可以接收一个参数。当某个RDD执行map方法时,会遍历该RDD中的每一个数据项,并依次应用f函数,从而产生一个新的RDD。即,这个新RDD中的每一个元素都是原来RDD中每一个元素依次应用f函数而得到的。
object wc_example {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
// 从文件中创建RDD
val rdd = sc.makeRDD(List(1, 2, 4, 1, 2, 4, 12 , 3))
val maprdd = rdd.map((_, 1)).reduceByKey(_+_)
maprdd.collect().foreach(println)
sc.stop()
}
}
借用wordcount例子,map算子的作用就是将rdd的每一个数据项做了一个处理,返回了一个元组。
元素的个数不变,元素发生了变化。
1.2 mapPartition
将待处理的数据以分区为单位发往到计算机节点进行计算,这里的处理是指可以进行任意的处理,哪怕是过滤。
object Spark_02_RDD_mapPartition {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List(1, 2, 3, 4), 2)
rdd.mapPartitions(
_.filter(_ % 2 == 0)
).collect().foreach(println)
sc.stop()
}
}
map和mapPartition的区别
数据处理角度
map算子是分区内一个数据一个数据的操作,类似于串行操作,而mapPartition算子是以分区为单位进行批处理。
功能的角度
map算子主要目的是将数据源中的数据进行转换和改变,但是不会减少或增多数据。mapPartition算子需要传递一个迭代器(一个分区里的数据),返回一个迭代器,没有要求元素的个数保持不变。
性能的角度
map算子因为类似于串行操作,所以性能比较低,而mapPartition算子类似于批处理,所以性能较高。但是mapPartition算子会长时间占用内存,那么会导致内存可能不够用,出现内存溢出的错误。
1.3 mapPartitionWithIndex
源码:
def mapPartitionsWithIndex[U: ClassTag](
f: (Int, Iterator[T]) => Iterator[U],
preservesPartitioning: Boolean = false):
输入:元组(分区索引,分区的迭代器)=> 迭代器
将处理的数据以分区为单位发送到计算节点上进行处理,这里的处理是指可以进行任意的处理。在处理的同时获得分区的索引,可以通过模式匹配来选择处理哪个分区的数据。
object Spark_02_RDD_mapPartition {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List(1, 2, 3, 4), 2)
rdd.mapPartitionsWithIndex(
(index, iter)=>{
if(index == 0){
iter.filter(_%2==0)
}else{
Nil.iterator
}
}
).collect().foreach(println)
sc.stop()
}
}
1.4 flatMap扁平化(flatten + map)
1)功能说明
与map操作类似,将RDD中的每一个元素通过应用f函数依次转换为新的元素,并封装到RDD中。
区别:在flatMap操作中,f函数的返回值是一个集合,并且会将每一个该集合中的元素拆分出来放到新的RDD中。
2)需求说明:创建一个集合,集合里面存储的还是子集合,把所有子集合中数据取出放入到一个大的集合中。
object wc_example1 {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
// 从文件中创建RDD
val rdd = sc.textFile("data/1.txt", 2)
// data/1.txt文件内容:
// hello spark
// hello java
// hello scala
// flatMap函数先进行map操作,对读取的每行数据split=>得到字符串数组
// 然后flatten函数扁平化=>得到字符串
rdd.flatMap(_.split(" ")).collect().foreach(println)
// hello
// spark
// hello
// java
// hello
// scala
sc.stop()
}
}
1.5 glom
源码:
def glom(): RDD[Array[T]] = withScope {
new MapPartitionsRDD[Array[T], T](this, (_, _, iter) => Iterator(iter.toArray))
}
将同一个分区的数据直接转换为相同类型的内存数组进行处理,分区不变。
1.6 groupBy()分组
源码:
def groupBy[K](f: T => K)(implicit kt: ClassTag[K]): RDD[(K, Iterable[T])] = withScope {
groupBy[K](f, defaultPartitioner(this))
}
根据key分组,结果返回元组(key,迭代器)
函数说明:
将数据根据指定的规则进行分组。分区默认不变。但是数据会被打乱重新组合,我们将这样的操作称为shuffle。极限情况下,数据可能被分在同一个分区。
一个组的数据在一个分区,但并不是说一个分区只有一个组。
object Spark_02_RDD_groupBy {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
// 从文件中创建RDD
val rdd = sc.textFile("data/1.txt", 2)
// data/1.txt文件内容:
// hello spark
// hello java
// hello scala
// rdd.flatMap(_.split(" ")).map((_, 1)).groupByKey().map(t => {
// (t._1, t._2.size)
// })
// .collect().foreach(println)
rdd.flatMap(_.split(" ")).map((_, 1)).groupBy(_._1)
.collect().foreach(println)
// (scala,CompactBuffer((scala,1)))
// (hello,CompactBuffer((hello,1), (hello,1), (hello,1)))
// (java,CompactBuffer((java,1)))
// (spark,CompactBuffer((spark,1)))
sc.stop()
}
}
1.7 filter过滤
源码:
def filter(f: T => Boolean): RDD[T] = withScope {
val cleanF = sc.clean(f)
new MapPartitionsRDD[T, T](
this,
(_, _, iter) => iter.filter(cleanF),
preservesPartitioning = true)
}
函数说明:
将数据根据指定的规则进行筛选过滤,符合规则的数据保留,不符合规则的数据丢弃。
当数据进行筛选过滤后,分区不变,但是分区内的数据可能会不均衡。生产环境下,可能会出现数据倾斜。
object Spark_04_RDD_filter {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List(1, 2, 3, 4, 5, 6), 2)
rdd.filter(_%2==0).collect().foreach(println)
// 2
// 4
// 6
sc.stop()
}
}
1.8 sample
源码:
def sample(
withReplacement: Boolean,
fraction: Double,
seed: Long = Utils.random.nextLong): RDD[T]
函数说明:
根据指定的规则从数据集中抽取数据。
object Spark_05_RDD_sample {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List(1, 2, 3, 4, 5, 6), 2)
// 第一个参数表示:抽取数据后是否将数据返回true(放回),false(丢弃)
// 第二个参数表示:数据源中每条数据被抽取的概率。
// 如果抽到不放回的场合:数据源中每条数据被抽取的概率,基准值的概念
// 如果抽取放回的场合,表示数据源中的每条数据被抽取的可能次数。
// 第三个参数表示:抽取数据时随机算法的种子
// 如果不传递第三个参数,那么使用的是当前系统时间。
rdd.sample(false, 0.4, 1).collect().foreach(println)
// 1
// 2
// 4
sc.stop()
}
}
1.9 distinct
源码:
def distinct(numPartitions: Int)(implicit ord: Ordering[T] = null): RDD[T] = withScope {
def removeDuplicatesInPartition(partition: Iterator[T]): Iterator[T]
函数说明:
将数据集中重复的数据去重。
object Spark_04_RDD_distinct {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List(1, 2, 5, 1, 2, 7, 1, 2), 2)
rdd.distinct().collect().foreach(println)
// 2
// 1
// 7
// 5
sc.stop()
}
}
1.10 coalesce
源码:
def coalesce(numPartitions: Int, shuffle: Boolean = false,
partitionCoalescer: Option[PartitionCoalescer] = Option.empty)
(implicit ord: Ordering[T] = null)
: RDD[T]
函数说明:
根据数据量缩减分区,用于大数据集过滤后,提高小数据集执行效率。
当spark程序中,存在过多的小任务时,可以通过coalesce方法缩减合并分区,减少分区的个数,减小任务调度成本。
coalesce方法的第一个参数为要修改成的分区数。可以减少分区,也可以增大分区。但增大分区有另一个算子。
object Spark_06_RDD_coalesce {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8,9), 3)
// 将会产生三个分区:【1,2 ,3】, 【4, 5,6 】, 【7, 8, 9】
rdd.coalesce(2, true).saveAsTextFile("datas/")
// 缩减分区,如果将默认第二个参数,将会产生2个分区:【1,2,3】,【4,5,6,7,8,9】
// 原先在一个分区里的数据,在缩减分区或增大分区以后,还在同一个分区=>并没有shuffle
// 第二个参数是是否shuffle:如果设置为true,则shuffle:[1, 3, 5, 7, 9], [2, 4, 6, 8]
sc.stop()
}
}
注意:如果coalesce算子可以扩大分区,但如果不进行shuffle操作,是没有意义的。
所以如果想要实现扩大分区的效果,需要使用shuffle。
spark提供了一个简化的操作。
缩减分区:coalesce:如果想要数据均衡,可以采用shuffle。
扩大分区:repartition:底层代码调用的是coalesce,而且肯定会采用shuffle。
1. 11 repartition(扩大分区)
源码:
def repartition(numPartitions: Int)(implicit ord: Ordering[T] = null): RDD[T] = withScope {
coalesce(numPartitions, shuffle = true)
}
repartition方法底层调用的是coalesce方法,而且第二个参数为true=>即一定会采用shuffle。
object Spark_06_RDD_repartition {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8,9), 3)
rdd.repartition(3).saveAsTextFile("datas")
// 分区数据的分配:由于采用shuffle,所以原一个分区内的数据可能会去往不同的分区
// [3, 5, 9], [1, 6, 7], [2, 4, 8]
sc.stop()
}
}
1. 12 sortBy
源码:
def sortBy[K](
f: (T) => K,
ascending: Boolean = true,
numPartitions: Int = this.partitions.length)
(implicit ord: Ordering[K], ctag: ClassTag[K]): RDD[T] = withScope {
this.keyBy[K](f)
.sortByKey(ascending, numPartitions)
.values
}
根据函数返回的映射值排序。结果显示的还是原数据。
sortBy方法可以根据指定的规则对数据源中的数据进行排序,默认为升序:第二个参数ascending=true。第二个参数可以改变排序的最终顺序。
sortBy默认情况下,不会改变分区,但中间会存在shuffle操作。源码产生了shuffleRDD对象:
new ShuffledRDD[K, V, V](self, part)
.setKeyOrdering(if (ascending) ordering else ordering.reverse)
object Spark_07_RDD_sortBy {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List(4, 2, 1, 6, 7, 9, 8, 3, 5), 3)
rdd.sortBy(_*2).saveAsTextFile("datas")
// sortBy根据返回的映射值排序:比如以映射值_*2排序
// [1, 2, 3], [4, 5, 6], [7, 8, 9]
sc.stop()
}
}
2. 双Value类型
2.1 intersection(交集)
源码:
def intersection(other: RDD[T]): RDD[T] = withScope {
this.map(v => (v, null)).cogroup(other.map(v => (v, null)))
.filter { case (_, (leftGroup, rightGroup)) => leftGroup.nonEmpty && rightGroup.nonEmpty }
.keys
}
函数说明:
对源RDD和参数RDD求交集后返回一个新的RDD
object Spark_08_RDD_intersection {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd1 = sc.makeRDD(List(1, 2, 3, 4, 5, 6), 3)
val rdd2 = sc.makeRDD(List(3, 4, 5, 7, 9, 10), 3)
val rdd = rdd1.intersection(rdd2)
rdd.collect().foreach(println)
sc.stop()
}
}
2.2 union(并集)
源码:
def union(other: RDD[T]): RDD[T] = withScope {
sc.union(this, other)
}
def union[T: ClassTag](rdds: Seq[RDD[T]]): RDD[T] = withScope {
val nonEmptyRdds = rdds.filter(!_.partitions.isEmpty)
val partitioners = nonEmptyRdds.flatMap(_.partitioner).toSet
if (nonEmptyRdds.forall(_.partitioner.isDefined) && partitioners.size == 1) {
new PartitionerAwareUnionRDD(this, nonEmptyRdds)
} else {
new UnionRDD(this, nonEmptyRdds)
}
}
函数说明:
对源RDD和参数RDD求并集。
object Spark_08_RDD_union_Transformation {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd1 = sc.makeRDD(List(1, 2, 3, 4, 5, 6), 3)
val rdd2 = sc.makeRDD(List(3, 4, 5, 7, 9, 10), 3)
val rdd = rdd1.union(rdd2)
rdd.collect().foreach(println)
// [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]
sc.stop()
}
}
2.3 subtarct(差集)
源码:
def subtract(other: RDD[T]): RDD[T] = withScope {
subtract(other, partitioner.getOrElse(new HashPartitioner(partitions.length)))
}
def subtract(
other: RDD[T],
p: Partitioner)(implicit ord: Ordering[T] = null): RDD[T] = withScope {
if (partitioner == Some(p)) {
// Our partitioner knows how to handle T (which, since we have a partitioner, is
// really (K, V)) so make a new Partitioner that will de-tuple our fake tuples
val p2 = new Partitioner() {
override def numPartitions: Int = p.numPartitions
override def getPartition(k: Any): Int = p.getPartition(k.asInstanceOf[(Any, _)]._1)
}
// Unfortunately, since we're making a new p2, we'll get ShuffleDependencies
// anyway, and when calling .keys, will not have a partitioner set, even though
// the SubtractedRDD will, thanks to p2's de-tupled partitioning, already be
// partitioned by the right/real keys (e.g. p).
this.map(x => (x, null)).subtractByKey(other.map((_, null)), p2).keys
} else {
this.map(x => (x, null)).subtractByKey(other.map((_, null)), p).keys
}
}
对源RDD和参数RDD求差集
object Spark_08_RDD_subtract_Transformation {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd1 = sc.makeRDD(List(1, 2, 3, 4, 5, 6), 3)
val rdd2 = sc.makeRDD(List(3, 4, 5, 7, 9, 10), 3)
val rdd = rdd1.subtract(rdd2)
rdd.collect().foreach(println)
// 数据存在于rdd1,但不存在于rdd2
// [1, 2, 6]
sc.stop()
}
}
2.4 zip(拉链)
intersection和union和subtract都要求RDD的数据类型一致,而zip并不要求。
源码:
def zip[U: ClassTag](other: RDD[U]): RDD[(T, U)] = withScope {
zipPartitions(other, preservesPartitioning = false) { (thisIter, otherIter) =>
new Iterator[(T, U)] {
def hasNext: Boolean = (thisIter.hasNext, otherIter.hasNext) match {
case (true, true) => true
case (false, false) => false
case _ => throw new SparkException("Can only zip RDDs with " +
"same number of elements in each partition")
}
def next(): (T, U) = (thisIter.next(), otherIter.next())
}
}
}
在源码也可以看到:RDD[(T, U)],所以并不要求两个RDD的数据类型一致。
将源RDD和参数RDD的数据一一拉链起来。
object Spark_08_RDD_zip_Transformation {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd1 = sc.makeRDD(List("A", "B", "C", "D", "E", "F"), 3)
val rdd2 = sc.makeRDD(List(1, 2, 3, 4, 5, 6), 3)
val rdd = rdd1.zip(rdd2)
// 将两个RDD的数据拉链起来
// 但有两个要求,分区个数numSlice相同,数据的个数一致
rdd.collect().foreach(println)
// (A, 1), (B, 2), (C, 3), (D, 4), (E, 5), (F, 6)
sc.stop()
}
}
3. Key-Value类型
3.1 partitionBy
源码:
函数说明:
将数据按照指定的分区器Partitioner重新分区。spark默认的分区器是HashPartitioner。
class HashPartitioner(partitions: Int) extends Partitioner {
require(partitions >= 0, s"Number of partitions ($partitions) cannot be negative.")
def numPartitions: Int = partitions
def getPartition(key: Any): Int = key match {
case null => 0
case _ => Utils.nonNegativeMod(key.hashCode, numPartitions)
}
override def equals(other: Any): Boolean = other match {
case h: HashPartitioner =>
h.numPartitions == numPartitions
case _ =>
false
}
override def hashCode: Int = numPartitions
}
3.2 reduceByKey
源码:
def reduceByKey(partitioner: Partitioner, func: (V, V) => V): RDD[(K, V)] = self.withScope {
combineByKeyWithClassTag[V]((v: V) => v, func, func, partitioner)
}
函数说明:
可以将数据按照相同的key对value进行聚合。
object Spark_09_RDD_reduceByKey_Transformation {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List("A", "B", "A", "A", "E"), 2)
println(rdd.map((_, 1)).reduceByKey(_ + _).collect().mkString)
sc.stop()
}
}
3.3 groupByKey
源码:
def groupByKey(numPartitions: Int): RDD[(K, Iterable[V])] = self.withScope {
groupByKey(new HashPartitioner(numPartitions))
}
函数说明:
将数据源的数据,相同的key的数据分在一个组中,形成一个对偶元组。
元组的第一个元素就是key
元组的第二个参数就是相同的key的value的集合。
将分区的数据直接转换为相同类型的内存数组进行后续处理。
object Spark_09_RDD_groupByKey_Transformation {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List("A", "B", "A", "A", "E"), 2)
rdd.map((_, 1)).groupByKey(2).collect().foreach(println)
// numPartitions分区个数
// (B,CompactBuffer(1))
// (A,CompactBuffer(1, 1, 1))
// (E,CompactBuffer(1))
sc.stop()
}
}
3.4 aggregateByKey
reduceByKey支持分区内预聚合的功能,可以有效减少shuffle时落盘的数据量,提升性能。但它要求分区内和分区间的聚合逻辑相同。
源码:
def aggregateByKey[U: ClassTag](zeroValue: U, partitioner: Partitioner)(seqOp: (U, V) => U,
combOp: (U, U) => U): RDD[(K, U)] = self.withScope {
// Serialize the zero value to a byte array so that we can get a new clone of it on each key
val zeroBuffer = SparkEnv.get.serializer.newInstance().serialize(zeroValue)
val zeroArray = new Array[Byte](zeroBuffer.limit)
zeroBuffer.get(zeroArray)
lazy val cachedSerializer = SparkEnv.get.serializer.newInstance()
val createZero = () => cachedSerializer.deserialize[U](ByteBuffer.wrap(zeroArray))
// We will clean the combiner closure later in `combineByKey`
val cleanedSeqOp = self.context.clean(seqOp)
combineByKeyWithClassTag[U]((v: V) => cleanedSeqOp(createZero(), v),
cleanedSeqOp, combOp, partitioner)
}
函数说明:
将数据根据不同的规则进行分区内计算和分区间计算。
object Spark_10_RDD_aggregateByKey_Transformation {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("wc")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List("A", "B", "A", "A", "E"), 2)
println(rdd.map((_, 1)).aggregateByKey(0)(_+_, _+_).collect().mkString(","))
// (B,1),(A,3),(E,1)
// 第一个括号内的是计算分区内和分区间的初始值。
// 第二个括号内第一个参数是规定分区内的计算逻辑
// 第二个括号内第二个参数是规定分区间的计算逻辑
sc.stop()
}
}
原文地址:https://blog.csdn.net/2301_80912559/article/details/143078237
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!