• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

Spark使用RDD实现分组topN(八种方法)

武飞扬头像
最后一瓶脉动
帮助1

最近在复习Spark,记录一个使用RDD实现分组topN的方法,一共写了八种,其中有很多地方都是有共性的,我会在代码最后进行总结八种的思路,他们之间的共性以及每一种的优缺点。

以下是样例数据

语文,赵三金
语文,赵三金
语文,赵三金
语文,赵三金
语文,赵三金
语文,赵三金
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
语文,杀马特团长
数学,黑牛
数学,黑牛
数学,黑牛
数学,黑牛
数学,黑牛
数学,黑牛
数学,白牛
数学,白牛
数学,白牛
数学,白牛
数学,白牛
数学,白牛
数学,白牛
数学,刀哥
数学,刀哥
数学,刀哥
数学,刀哥
数学,刀哥
数学,刀哥
数学,刀哥
数学,刀哥
数学,刀哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥
数学,虎哥

-----求每个学科最受欢迎的老师前两名

  1.  
    import org.apache.spark.{SparkConf, SparkContext}
  2.  
     
  3.  
    /**
  4.  
    * 多种思路取分组topN 例如 每个学科最受欢迎的老师
  5.  
    * 第一种:
  6.  
    * 先统计每个学科每个老师的访问次数
  7.  
    * 然后根据学科分组 统计每个老师访问次数前N次的
  8.  
    * 这里的例子N取2
  9.  
    */
  10.  
    object topNDemo1 {
  11.  
    def main(args: Array[String]): Unit = {
  12.  
    val conf = new SparkConf().setMaster("local[*]").setAppName("Demo1")
  13.  
     
  14.  
    val sc = new SparkContext(conf)
  15.  
    //1.首先读入文件,切割,并将二元组和1组合成三元组,这样就能统计每个老师的次数了
  16.  
    val rdd1 = sc.textFile("data/topN.txt")
  17.  
    val rdd2 = rdd1.mapPartitions(it => {
  18.  
    it.map(x => {
  19.  
    val strings = x.split(",")
  20.  
    ((strings(0), strings(1)), 1)
  21.  
    })
  22.  
    })
  23.  
    /**
  24.  
    * rdd2的示例数据
  25.  
    * ((数学,虎哥),1)
  26.  
    * ((语文,杀马特团长),1)
  27.  
    * ((数学,虎哥),1)
  28.  
    */
  29.  
     
  30.  
    //2.通过reduceByKey统计出每个学科每个老师访问次数
  31.  
    val rdd3 = rdd2.reduceByKey(_ _)
  32.  
     
  33.  
    /**
  34.  
    * rdd3的数据
  35.  
    * ((语文,杀马特团长),15)
  36.  
    * ((语文,赵三金),6)
  37.  
    * ((数学,虎哥),19)
  38.  
    * ((数学,刀哥),9)
  39.  
    * ((数学,黑牛),6)
  40.  
    * ((数学,白牛),7)
  41.  
    */
  42.  
    //3.根据学科分组,对value toList后排序取前N个
  43.  
    val rdd4 = rdd3.groupBy(_._1._1)
  44.  
    /**
  45.  
    * rdd4的数据
  46.  
    * (数学,CompactBuffer(((数学,刀哥),9), ((数学,虎哥),19), ((数学,黑牛),6), ((数学,白牛),7)))
  47.  
    * (语文,CompactBuffer(((语文,赵三金),6), ((语文,杀马特团长),15)))
  48.  
    */
  49.  
    val rdd5 = rdd4.flatMapValues(it => {
  50.  
    //根据访问次数降序排列,取出N个。注意:这里toList的时候容易造成OOM
  51.  
    it.toList.sortBy(-_._2).take(2)
  52.  
    })
  53.  
     
  54.  
    /**
  55.  
    * rdd5的数据
  56.  
    * (数学,((数学,虎哥),19))
  57.  
    * (数学,((数学,刀哥),9))
  58.  
    * (语文,((语文,杀马特团长),15))
  59.  
    * (语文,((语文,赵三金),6))
  60.  
    */
  61.  
     
  62.  
    //4.最后map取出要的数据即可
  63.  
    val result = rdd5.map(x => {
  64.  
    (x._1, x._2._1._2, x._2._2)
  65.  
    })
  66.  
     
  67.  
    /**
  68.  
    * 结果数据
  69.  
    * (数学,虎哥,19)
  70.  
    * (数学,刀哥,9)
  71.  
    * (语文,杀马特团长,15)
  72.  
    * (语文,赵三金,6)
  73.  
    */
  74.  
    result.foreach(println)
  75.  
     
  76.  
    sc.stop()
  77.  
    }
  78.  
    }
  1.  
    import org.apache.spark.{SparkConf, SparkContext}
  2.  
     
  3.  
    /**
  4.  
    * 多种思路取分组topN 例如 每个学科最受欢迎的老师
  5.  
    * 第二种:
  6.  
    * 先统计每个学科每个老师的访问次数
  7.  
    * 然后拿出一个学科,或者for循环出每一个学科,使用top方法取出前N个
  8.  
    */
  9.  
    object topNDemo2 {
  10.  
    def main(args: Array[String]): Unit = {
  11.  
    val conf = new SparkConf().setMaster("local[*]").setAppName("Demo1")
  12.  
     
  13.  
    val sc = new SparkContext(conf)
  14.  
    //1.首先读入文件,切割,并将二元组和1组合成三元组,这样就能统计每个老师的次数了
  15.  
    val rdd1 = sc.textFile("data/topN.txt")
  16.  
    val rdd2 = rdd1.mapPartitions(it => {
  17.  
    it.map(x => {
  18.  
    val strings = x.split(",")
  19.  
    ((strings(0), strings(1)), 1)
  20.  
    })
  21.  
    })
  22.  
    /**
  23.  
    * rdd2的示例数据
  24.  
    * ((数学,虎哥),1)
  25.  
    * ((语文,杀马特团长),1)
  26.  
    * ((数学,虎哥),1)
  27.  
    */
  28.  
     
  29.  
    //2.通过reduceByKey统计出每个学科每个老师访问次数
  30.  
    val rdd3 = rdd2.reduceByKey(_ _)
  31.  
     
  32.  
    /**
  33.  
    * rdd3的数据
  34.  
    * ((语文,杀马特团长),15)
  35.  
    * ((语文,赵三金),6)
  36.  
    * ((数学,虎哥),19)
  37.  
    * ((数学,刀哥),9)
  38.  
    * ((数学,黑牛),6)
  39.  
    * ((数学,白牛),7)
  40.  
    */
  41.  
    //3.过滤要统计的学科,如果统计的科目是固定的可以写一个for循环
  42.  
    val filtered = rdd3.filter(_._1._1.equals("数学"))
  43.  
     
  44.  
    //4.再调用top方法,根据传入的排序规则拿出前两个即可
  45.  
    /**
  46.  
    * def top(num: Int)(implicit ord: Ordering[T]): Array[T] = withScope {
  47.  
    * takeOrdered(num)(ord.reverse)
  48.  
    * }
  49.  
    * top的源码将我们传入的排序顺序反转了,这里要注意
  50.  
    */
  51.  
    implicit val orderRule = Ordering[Int].on[((String, String), Int)](_._2)
  52.  
    val result = filtered.top(2)
  53.  
     
  54.  
    result.foreach(println)
  55.  
    sc.stop()
  56.  
    }
  57.  
    }
  1.  
    import org.apache.spark.{Partitioner, SparkConf, SparkContext}
  2.  
     
  3.  
    import scala.collection.mutable
  4.  
     
  5.  
    /**
  6.  
    * 多种思路取分组topN 例如 每个学科最受欢迎的老师
  7.  
    * 第三种:
  8.  
    * 自定义分区器,将一个学科的数据放到用一个分区内,再进行toList sort 取前N个
  9.  
    */
  10.  
    object topNDemo3 {
  11.  
    def main(args: Array[String]): Unit = {
  12.  
    val conf = new SparkConf().setMaster("local[*]").setAppName("Demo1")
  13.  
     
  14.  
    val sc = new SparkContext(conf)
  15.  
    //1.首先读入文件,切割,并将二元组和1组合成三元组,这样就能统计每个老师的次数了
  16.  
    val rdd1 = sc.textFile("data/topN.txt")
  17.  
    val rdd2 = rdd1.mapPartitions(it => {
  18.  
    it.map(x => {
  19.  
    val strings = x.split(",")
  20.  
    ((strings(0), strings(1)), 1)
  21.  
    })
  22.  
    })
  23.  
    /**
  24.  
    * rdd2的示例数据
  25.  
    * ((数学,虎哥),1)
  26.  
    * ((语文,杀马特团长),1)
  27.  
    * ((数学,虎哥),1)
  28.  
    */
  29.  
     
  30.  
    //2.通过reduceByKey统计出每个学科每个老师访问次数
  31.  
    val rdd3 = rdd2.reduceByKey(_ _)
  32.  
     
  33.  
    /**
  34.  
    * rdd3的数据
  35.  
    * ((语文,杀马特团长),15)
  36.  
    * ((语文,赵三金),6)
  37.  
    * ((数学,虎哥),19)
  38.  
    * ((数学,刀哥),9)
  39.  
    * ((数学,黑牛),6)
  40.  
    * ((数学,白牛),7)
  41.  
    */
  42.  
    //3.根据自己定义的分区器将数据传入不同的分区,这里要先处理一下判断有多少学科
  43.  
    val subjects = rdd3.map(_._1._1).distinct().collect()
  44.  
    val partitioner = new MyPartition(subjects)
  45.  
    val rdd4 = rdd3.partitionBy(partitioner)
  46.  
     
  47.  
    //4.再对每个分区内的数据排序取前两个
  48.  
    val result = rdd4.mapPartitions(it => {
  49.  
    it.toList.sortBy(-_._2).take(2).iterator
  50.  
    })
  51.  
    result.foreach(println)
  52.  
     
  53.  
    sc.stop()
  54.  
    }
  55.  
    }
  56.  
     
  57.  
    class MyPartition(subjects: Array[String]) extends Partitioner {
  58.  
    val subToNum = new mutable.HashMap[String, Int]
  59.  
    var i = 0
  60.  
    for (elem <- subjects) {
  61.  
    subToNum(elem) = i
  62.  
    i = 1
  63.  
    }
  64.  
     
  65.  
    //判断分区的个数
  66.  
    override def numPartitions: Int = subjects.size
  67.  
     
  68.  
    //数据进入分区的规则
  69.  
    override def getPartition(key: Any): Int = {
  70.  
    val tp = key.asInstanceOf[(String, String)]
  71.  
    subToNum(tp._1)
  72.  
    }
  73.  
    }
  1.  
    import org.apache.spark.{Partitioner, SparkConf, SparkContext}
  2.  
     
  3.  
    import scala.collection.mutable
  4.  
     
  5.  
    /**
  6.  
    * 多种思路取分组topN 例如 每个学科最受欢迎的老师
  7.  
    * 第四种:
  8.  
    * 自定义分区器,将一个学科的数据放到用一个分区内,使用TreeSet保存数据,这样数据量再大也不会OOM
  9.  
    */
  10.  
    object topNDemo4 {
  11.  
    def main(args: Array[String]): Unit = {
  12.  
    val conf = new SparkConf().setMaster("local[*]").setAppName("Demo1")
  13.  
     
  14.  
    val sc = new SparkContext(conf)
  15.  
    //1.首先读入文件,切割,并将二元组和1组合成三元组,这样就能统计每个老师的次数了
  16.  
    val rdd1 = sc.textFile("data/topN.txt")
  17.  
    val rdd2 = rdd1.mapPartitions(it => {
  18.  
    it.map(x => {
  19.  
    val strings = x.split(",")
  20.  
    ((strings(0), strings(1)), 1)
  21.  
    })
  22.  
    })
  23.  
    /**
  24.  
    * rdd2的示例数据
  25.  
    * ((数学,虎哥),1)
  26.  
    * ((语文,杀马特团长),1)
  27.  
    * ((数学,虎哥),1)
  28.  
    */
  29.  
     
  30.  
    //2.通过reduceByKey统计出每个学科每个老师访问次数
  31.  
    val rdd3 = rdd2.reduceByKey(_ _)
  32.  
     
  33.  
    /**
  34.  
    * rdd3的数据
  35.  
    * ((语文,杀马特团长),15)
  36.  
    * ((语文,赵三金),6)
  37.  
    * ((数学,虎哥),19)
  38.  
    * ((数学,刀哥),9)
  39.  
    * ((数学,黑牛),6)
  40.  
    * ((数学,白牛),7)
  41.  
    */
  42.  
    //3.根据自己定义的分区器将数据传入不同的分区,这里要先处理一下判断有多少学科
  43.  
    val subjects = rdd3.map(_._1._1).distinct().collect()
  44.  
    val partitioner = new MyPartition(subjects)
  45.  
    val rdd4 = rdd3.partitionBy(partitioner)
  46.  
     
  47.  
    rdd4.foreach(println)
  48.  
    //4.再对每个分区内的数据遍历,放入TreeSet中
  49.  
    val result = rdd4.mapPartitions(it => {
  50.  
    //隐式传入一个排序规则
  51.  
    implicit val rules = Ordering[Int].on[((String, String), Int)](-_._2)
  52.  
    val sorter = new mutable.TreeSet[((String, String), Int)]()
  53.  
    it.foreach(x => { // 这里千万不能调用map,不然会返回一个空的TreeSet
  54.  
    //取前N个的话,TreeSet里存N 1个数就可以
  55.  
    sorter = x
  56.  
    if (sorter.size > 2) {
  57.  
    sorter -= sorter.last
  58.  
    }
  59.  
    })
  60.  
    sorter.iterator
  61.  
    })
  62.  
    result.foreach(println)
  63.  
     
  64.  
    sc.stop()
  65.  
    }
  66.  
    }
  1.  
    import org.apache.spark.{SparkConf, SparkContext}
  2.  
     
  3.  
    import scala.collection.mutable
  4.  
     
  5.  
    /**
  6.  
    * 多种思路取分组topN 例如 每个学科最受欢迎的老师
  7.  
    * 第五种:
  8.  
    * 不使用自定义分区器,在groupBy之后直接放到TreeSet里
  9.  
    */
  10.  
    object topNDemo5 {
  11.  
    def main(args: Array[String]): Unit = {
  12.  
    val conf = new SparkConf().setMaster("local[*]").setAppName("Demo1")
  13.  
     
  14.  
    val sc = new SparkContext(conf)
  15.  
    //1.首先读入文件,切割,并将二元组和1组合成三元组,这样就能统计每个老师的次数了
  16.  
    val rdd1 = sc.textFile("data/topN.txt")
  17.  
    val rdd2 = rdd1.mapPartitions(it => {
  18.  
    it.map(x => {
  19.  
    val strings = x.split(",")
  20.  
    ((strings(0), strings(1)), 1)
  21.  
    })
  22.  
    })
  23.  
    /**
  24.  
    * rdd2的示例数据
  25.  
    * ((数学,虎哥),1)
  26.  
    * ((语文,杀马特团长),1)
  27.  
    * ((数学,虎哥),1)
  28.  
    */
  29.  
     
  30.  
    //2.通过reduceByKey统计出每个学科每个老师访问次数
  31.  
    val rdd3 = rdd2.reduceByKey(_ _)
  32.  
     
  33.  
    //3.对已经统计好的RDD按照学科进行分组
  34.  
    val grouped = rdd3.groupBy(_._1._1)
  35.  
     
  36.  
    //4.对已经分好组的数据的Value放到一个TreeSet里
  37.  
    val sorted = grouped.flatMapValues(it => {
  38.  
    //隐式传入一个排序规则
  39.  
    implicit val rules = Ordering[Int].on[((String, String), Int)](-_._2)
  40.  
    val sorter = new mutable.TreeSet[((String, String), Int)]()
  41.  
    it.foreach(x => { // 这里千万不能调用map,不然会返回一个空的TreeSet
  42.  
    //取前N个的话,TreeSet里存N 1个数就可以
  43.  
    sorter = x
  44.  
    if (sorter.size > 2) {
  45.  
    sorter -= sorter.last
  46.  
    }
  47.  
    })
  48.  
    sorter.iterator
  49.  
    })
  50.  
    //5.map一下拿出要的数据
  51.  
    val result = sorted.map(x => {
  52.  
    x._2
  53.  
    })
  54.  
    result.foreach(println)
  55.  
    sc.stop()
  56.  
    }
  57.  
    }
  1.  
    import org.apache.spark.{SparkConf, SparkContext}
  2.  
     
  3.  
    import scala.collection.mutable
  4.  
     
  5.  
    /**
  6.  
    * 多种思路取分组topN 例如 每个学科最受欢迎的老师
  7.  
    * 第六种:
  8.  
    * 自定义分区器,将一个学科的数据放到用一个分区内,使用TreeSet保存数据,这样数据量再大也不会OOM
  9.  
    * 并且进行优化,可以将分区的过程放到reduceByKey,这样减少shuffle提高效率
  10.  
    */
  11.  
    object topNDemo6 {
  12.  
    def main(args: Array[String]): Unit = {
  13.  
    val conf = new SparkConf().setMaster("local[*]").setAppName("Demo1")
  14.  
     
  15.  
    val sc = new SparkContext(conf)
  16.  
    //1.首先读入文件,切割,并将二元组和1组合成三元组,这样就能统计每个老师的次数了
  17.  
    val rdd1 = sc.textFile("data/topN.txt")
  18.  
    val rdd2 = rdd1.mapPartitions(it => {
  19.  
    it.map(x => {
  20.  
    val strings = x.split(",")
  21.  
    ((strings(0), strings(1)), 1)
  22.  
    })
  23.  
    })
  24.  
    /**
  25.  
    * rdd2的示例数据
  26.  
    * ((数学,虎哥),1)
  27.  
    * ((语文,杀马特团长),1)
  28.  
    * ((数学,虎哥),1)
  29.  
    */
  30.  
    val subjects = rdd2.map(_._1._1).distinct().collect()
  31.  
    val partitioner = new MyPartition(subjects)
  32.  
    //2.通过reduceByKey统计出每个学科每个老师访问次数
  33.  
    //3.根据自己定义的分区器将数据传入不同的分区,这里要先处理一下判断有多少学科
  34.  
    val rdd3 = rdd2.reduceByKey(partitioner,_ _)
  35.  
    /**
  36.  
    * rdd3的数据
  37.  
    * ((语文,杀马特团长),15)
  38.  
    * ((语文,赵三金),6)
  39.  
    * ((数学,虎哥),19)
  40.  
    * ((数学,刀哥),9)
  41.  
    * ((数学,黑牛),6)
  42.  
    * ((数学,白牛),7)
  43.  
    */
  44.  
    //4.再对每个分区内的数据遍历,放入TreeSet中
  45.  
    val result = rdd3.mapPartitions(it => {
  46.  
    //隐式传入一个排序规则
  47.  
    implicit val rules = Ordering[Int].on[((String, String), Int)](-_._2)
  48.  
    val sorter = new mutable.TreeSet[((String, String), Int)]()
  49.  
    it.foreach(x => { // 这里千万不能调用map,不然会返回一个空的TreeSet
  50.  
    //取前N个的话,TreeSet里存N 1个数就可以
  51.  
    sorter = x
  52.  
    if (sorter.size > 2) {
  53.  
    sorter -= sorter.last
  54.  
    }
  55.  
    })
  56.  
    sorter.iterator
  57.  
    })
  58.  
    result.foreach(println)
  59.  
     
  60.  
    sc.stop()
  61.  
    }
  62.  
    }
  1.  
    import org.apache.spark.{Partitioner, SparkConf, SparkContext}
  2.  
     
  3.  
    import scala.collection.mutable
  4.  
     
  5.  
    /**
  6.  
    * 多种思路取分组topN 例如 每个学科最受欢迎的老师
  7.  
    * 第七种:
  8.  
    * 自定义分区器,将一个学科的数据放到用一个分区内,并且调用repartitionAndSortWithinPartitions方法
  9.  
    *
  10.  
    */
  11.  
    object topNDemo7 {
  12.  
    def main(args: Array[String]): Unit = {
  13.  
    val conf = new SparkConf().setMaster("local[*]").setAppName("Demo1")
  14.  
     
  15.  
    val sc = new SparkContext(conf)
  16.  
    //1.首先读入文件,切割,并将二元组和1组合成三元组,这样就能统计每个老师的次数了
  17.  
    val rdd1 = sc.textFile("data/topN.txt")
  18.  
    val rdd2 = rdd1.mapPartitions(it => {
  19.  
    it.map(x => {
  20.  
    val strings = x.split(",")
  21.  
    ((strings(0), strings(1)), 1)
  22.  
    })
  23.  
    })
  24.  
    /**
  25.  
    * rdd2的示例数据
  26.  
    * ((数学,虎哥),1)
  27.  
    * ((语文,杀马特团长),1)
  28.  
    * ((数学,虎哥),1)
  29.  
    */
  30.  
     
  31.  
    //2.通过reduceByKey统计出每个学科每个老师访问次数
  32.  
    val rdd3 = rdd2.reduceByKey(_ _)
  33.  
     
  34.  
    //3.将数据变成这种形式是为了调用下边的算子,该算子只能对key排序
  35.  
    val rdd4 = rdd3.map(tp => {
  36.  
    ((tp._1._1, tp._1._2, tp._2), null)
  37.  
    })
  38.  
    rdd4
  39.  
    /**
  40.  
    * rdd3的数据
  41.  
    * ((语文,杀马特团长),15)
  42.  
    * ((语文,赵三金),6)
  43.  
    * ((数学,虎哥),19)
  44.  
    * ((数学,刀哥),9)
  45.  
    * ((数学,黑牛),6)
  46.  
    * ((数学,白牛),7)
  47.  
    */
  48.  
    val subjects = rdd3.map(_._1._1).distinct().collect()
  49.  
    val partitioner = new MyPartition2(subjects)
  50.  
    //3.使用重新分区并且排序的方法,底层调用的是new一个ShuffleRDD,并且隐式传入key的排序规则
  51.  
    implicit val value = Ordering[Int].on[(String, String,Int)](-_._3)
  52.  
    val rdd5 = rdd4.repartitionAndSortWithinPartitions(partitioner)
  53.  
     
  54.  
    //4.这样数据就整体有序了,再取出前N个就可以了
  55.  
    val result = rdd5.map(_._1)
  56.  
    result.foreach(println)
  57.  
    sc.stop()
  58.  
    }
  59.  
    }
  60.  
     
  61.  
    class MyPartition2(subjects: Array[String]) extends Partitioner {
  62.  
    val subToNum = new mutable.HashMap[String, Int]
  63.  
    var i = 0
  64.  
    for (elem <- subjects) {
  65.  
    subToNum(elem) = i
  66.  
    i = 1
  67.  
    }
  68.  
     
  69.  
    //判断分区的个数
  70.  
    override def numPartitions: Int = subjects.size
  71.  
     
  72.  
    //数据进入分区的规则
  73.  
    override def getPartition(key: Any): Int = {
  74.  
    val tp = key.asInstanceOf[(String, String,Int)]
  75.  
    subToNum(tp._1)
  76.  
    }
  77.  
    }
  1.  
    import org.apache.spark.rdd.ShuffledRDD
  2.  
    import org.apache.spark.{Partitioner, SparkConf, SparkContext}
  3.  
     
  4.  
    import scala.collection.mutable
  5.  
     
  6.  
    /**
  7.  
    * 多种思路取分组topN 例如 每个学科最受欢迎的老师
  8.  
    * 第四种:
  9.  
    * 自定义分区器,将一个学科的数据放到用一个分区内,使用shuffledRDD运算
  10.  
    */
  11.  
    object topNDemo8 {
  12.  
    def main(args: Array[String]): Unit = {
  13.  
    val conf = new SparkConf().setMaster("local[*]").setAppName("Demo1")
  14.  
     
  15.  
    val sc = new SparkContext(conf)
  16.  
    //1.首先读入文件,切割,并将二元组和1组合成三元组,这样就能统计每个老师的次数了
  17.  
    val rdd1 = sc.textFile("data/topN.txt")
  18.  
    val rdd2 = rdd1.mapPartitions(it => {
  19.  
    it.map(x => {
  20.  
    val strings = x.split(",")
  21.  
    ((strings(0), strings(1)), 1)
  22.  
    })
  23.  
    })
  24.  
    /**
  25.  
    * rdd2的示例数据
  26.  
    * ((数学,虎哥),1)
  27.  
    * ((语文,杀马特团长),1)
  28.  
    * ((数学,虎哥),1)
  29.  
    */
  30.  
     
  31.  
    //2.通过reduceByKey统计出每个学科每个老师访问次数
  32.  
    val rdd3 = rdd2.reduceByKey(_ _)
  33.  
     
  34.  
    //3.将数据变成这种形式是为了调用下边的算子,该算子只能对key排序
  35.  
    val rdd4 = rdd3.map(tp => {
  36.  
    ((tp._1._1, tp._1._2, tp._2), null)
  37.  
    })
  38.  
    rdd4
  39.  
    /**
  40.  
    * rdd3的数据
  41.  
    * ((语文,杀马特团长),15)
  42.  
    * ((语文,赵三金),6)
  43.  
    * ((数学,虎哥),19)
  44.  
    * ((数学,刀哥),9)
  45.  
    * ((数学,黑牛),6)
  46.  
    * ((数学,白牛),7)
  47.  
    */
  48.  
    val subjects = rdd3.map(_._1._1).distinct().collect()
  49.  
    val partitioner = new MyPartition3(subjects)
  50.  
    //3.使用重新分区并且排序的方法,底层调用的是new一个ShuffleRDD,并且隐式传入key的排序规则
  51.  
    implicit val value = Ordering[Int].on[(String, String, Int)](_._3)
  52.  
     
  53.  
    val shuffledRDD = new ShuffledRDD[(String, String, Int), Null, Null](rdd4, partitioner)
  54.  
    shuffledRDD.setKeyOrdering(value)
  55.  
    shuffledRDD.foreach(println)
  56.  
     
  57.  
     
  58.  
    }
  59.  
    }
  60.  
     
  61.  
    class MyPartition3(subjects: Array[String]) extends Partitioner {
  62.  
    val subToNum = new mutable.HashMap[String, Int]
  63.  
    var i = 0
  64.  
    for (elem <- subjects) {
  65.  
    subToNum(elem) = i
  66.  
    i = 1
  67.  
    }
  68.  
     
  69.  
    //判断分区的个数
  70.  
    override def numPartitions: Int = subjects.size
  71.  
     
  72.  
    //数据进入分区的规则
  73.  
    override def getPartition(key: Any): Int = {
  74.  
    val tp = key.asInstanceOf[(String, String, Int)]
  75.  
    subToNum(tp._1)
  76.  
    }
  77.  
    }
  78.  
     

总结:

第一种方法:最基本方法。先统计每个学科每个老师的访问次数,然后按照学科分组,对所有老师和访问次数转化成list再排序,这种方法如果数据量非常大的话容易造成内存溢出

第二种方法:使用top。先统计每个学科每个老师的访问次数,然后做一次收集,统计出一共有多少学科,然后for循环遍历每一个学科,然后取出topN就可以了,这里要自定义排序规则,由于top方法是先在分区里取top再在分区间取top,所有不会内存溢出。但是这种方法如果有很多学科,会触发非常多的Action。

第三种方法:使用自定义分区器。先统计每个学科每个老师的访问次数,然后自定义一个分区器,按照学科分区,再对每个分区内的数据转化成list排序,这种方法和第一种方法其实很像,因为groupBy也是重新分区,但是这种方法会比groupBy传输的数据要少,因此要快一点,但是还是有内存溢出的风险。

第四种方法:使用自定义分区器 TreeSet。先统计每个学科每个老师的访问次数,然后自定义一个分区器,按照学科分区,然后对每个分区遍历,拿出里边的数据放到TreeSet里,这里要自定义一个排序规则,如果要取TOP2的话,TreeSet里最多存储两个数据就够了,每次第三个数据存进TreeSet里的时候进行排序然后去掉最后一个,这样的话不会有内存溢出的风险。

第五种方法:直接使用TreeSet存储数据。统计每个学科每个老师的访问次数,然后根据学科分组,再对values进行map,在组内使用TreeSet排序,就和第四种一样了。和第四种的区别就是,第四种按照学科分区后对每个分区一个TreeSet,第五种是按学科分组后对每个组内一个TreeSet。

第六种方法:对第四种进行优化。第四种方法先统计访问次数再自定义分区器,都会产生shuffle,其实可以把分区的过程提前,放到reduceByKey算子里,这样就减少了shuffle的次数,其实影响不是很大,因为在第四种方法里,reduce后产生的结果也会被复用。

第七种方法:调用repartitionAndSortWithinPartitions方法,这个算子可以直接根据我们传入的分区器和排序方法对数据进行分区并且对key进行排序,注意这里只能对key进行排序,因为底层调用的是new ShuffledRDD.setKeyOrdering 方法,所以要注意把排序的数据放到key中。这样到下游数据就是有序的,取出前N个即可。

第八种方法:第七种方法调用的算子底层是ShuffledRDD,因此也可以直接new一个ShuffledRDD来完成需求,这里不多解释。

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhfieake
系列文章
更多 icon
同类精品
更多 icon
继续加载