亚洲免费在线-亚洲免费在线播放-亚洲免费在线观看-亚洲免费在线观看视频-亚洲免费在线看-亚洲免费在线视频

Spark學(xué)習(xí)實例(Python):RDD執(zhí)行 Actions

系統(tǒng) 1778 0

上面我們學(xué)習(xí)了RDD如何轉(zhuǎn)換,即一個RDD轉(zhuǎn)換成另外一個RDD,但是轉(zhuǎn)換完成之后并沒有立刻執(zhí)行,僅僅是記住了數(shù)據(jù)集的邏輯操作,只有當(dāng)執(zhí)行了Action動作之后才會真正觸發(fā)Spark作業(yè),進(jìn)行算子的計算

執(zhí)行操作有:

  • reduce(func)
  • collect()
  • count()
  • first()
  • take(n)
  • takeSample(withReplacement, num, [seed])
  • takeOrdered(n, [ordering])
  • saveAsTextFile(path)
  • countByKey()
  • foreach(func)

reduce:使用函數(shù)func聚合數(shù)據(jù)集元素,返回執(zhí)行結(jié)果

            
              from pyspark import SparkContext

if __name__ == '__main__':
    sc = SparkContext(appName="rddAction", master="local[*]")
    data = [1, 2, 3, 4, 5]
    rdd = sc.parallelize(data)
    print(rdd.reduce(lambda x,y : x+y))
    # 15
    sc.stop()
            
          

collect:將計算結(jié)果回收到Driver端,當(dāng)數(shù)據(jù)量較大時執(zhí)行會造成oom

            
              from pyspark import SparkContext

if __name__ == '__main__':
    sc = SparkContext(appName="rddAction", master="local[*]")
    data = [1, 2, 3, 4, 5]
    rdd = sc.parallelize(data)
    print(rdd.collect())
    # [1, 2, 3, 4, 5]
    sc.stop()
            
          

count:返回數(shù)據(jù)集元素個數(shù),執(zhí)行過程中會將數(shù)據(jù)回收到Driver端進(jìn)行統(tǒng)計

            
              from pyspark import SparkContext

if __name__ == '__main__':
    sc = SparkContext(appName="rddAction", master="local[*]")
    data = [1, 2, 3, 4, 5]
    rdd = sc.parallelize(data)
    print(rdd.count())
    # 5
    sc.stop()
            
          

first:返回數(shù)據(jù)集中的第一個元素,類似于take(1)

            
              from pyspark import SparkContext

if __name__ == '__main__':
    sc = SparkContext(appName="rddAction", master="local[*]")
    data = [1, 2, 3, 4, 5]
    rdd = sc.parallelize(data)
    print(rdd.first())
    # 1
    sc.stop()
            
          

take:返回數(shù)據(jù)集中的前n個元素的數(shù)組

            
              from pyspark import SparkContext

if __name__ == '__main__':
    sc = SparkContext(appName="rddAction", master="local[*]")
    data = [1, 2, 3, 4, 5]
    rdd = sc.parallelize(data)
    print(rdd.take(3))
    # [1, 2, 3]
    sc.stop()
            
          

takeSample:返回數(shù)據(jù)集中num個隨機元素,seed指定隨機數(shù)生成器種子

            
              from pyspark import SparkContext

if __name__ == '__main__':
    sc = SparkContext(appName="rddAction", master="local[*]")
    data = [1, 2, 3, 4, 5]
    rdd = sc.parallelize(data)
    print(rdd.takeSample(True, 3, 1314))
    # [5, 2, 3]
    sc.stop()
            
          

takeOrdered:使用自然排序或自定義比較器返回數(shù)據(jù)集中的前n個元素

            
              from pyspark import SparkContext

if __name__ == '__main__':
    sc = SparkContext(appName="rddAction", master="local[*]")
    data = [5, 1, 4, 2, 3]
    rdd = sc.parallelize(data)
    print(rdd.takeOrdered(3))
    # [1, 2, 3]
    print(rdd.takeOrdered(3, key=lambda x: -x))
    # [5, 4, 3]
    sc.stop()
            
          

saveAsTextFile:將數(shù)據(jù)集元素作為文本文件寫入文件系統(tǒng)(如:本地文件系統(tǒng),HDFS等)

            
              from pyspark import SparkContext

if __name__ == '__main__':
    sc = SparkContext(appName="rddAction", master="local[*]")
    data = [1, 2, 3, 4, 5]
    rdd = sc.parallelize(data)
    rdd.saveAsTextFile("file:///home/data")
    sc.stop()
            
          

countByKey:統(tǒng)計(K,V)對中每個K的個數(shù)

            
              from pyspark import SparkContext

if __name__ == '__main__':
    sc = SparkContext(appName="rddAction", master="local[*]")
    data = [('a', 1), ('b', 2), ('a', 3)]
    rdd = sc.parallelize(data)
    print(sorted(rdd.countByKey().items()))
    # [('a', 2), ('b', 1)]
    sc.stop()
            
          

foreach:對RDD每個元素執(zhí)行指定函數(shù)

            
              from pyspark import SparkContext

def f(x):
    print(x)

if __name__ == '__main__':
    sc = SparkContext(appName="rddAction", master="local[*]")
    data = [1, 2, 3]
    rdd = sc.parallelize(data)
    rdd.foreach(f)
    # 1 2 3
    sc.stop()
            
          

至此,所有action動作學(xué)習(xí)完畢

?

Spark學(xué)習(xí)目錄:

  • Spark學(xué)習(xí)實例1(Python):單詞統(tǒng)計 Word Count
  • Spark學(xué)習(xí)實例2(Python):加載數(shù)據(jù)源Load Data Source
  • Spark學(xué)習(xí)實例3(Python):保存數(shù)據(jù)Save Data
  • Spark學(xué)習(xí)實例4(Python):RDD轉(zhuǎn)換 Transformations
  • Spark學(xué)習(xí)實例5(Python):RDD執(zhí)行 Actions
  • Spark學(xué)習(xí)實例6(Python):共享變量Shared Variables
  • Spark學(xué)習(xí)實例7(Python):RDD、DataFrame、DataSet相互轉(zhuǎn)換
  • Spark學(xué)習(xí)實例8(Python):輸入源實時處理 Input Sources Streaming
  • Spark學(xué)習(xí)實例9(Python):窗口操作 Window Operations

更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯(lián)系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發(fā)表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 99精品久久久久中文字幕 | 亚洲黄色网址大全 | 国产成人精品久久一区二区小说 | 国产午夜亚洲精品第一区 | 中文字幕一区二区三区亚洲精品 | 五月婷婷在线观看 | 奇米影视一区二区三区 | 女人洗澡一级毛片一级毛片 | 亚洲午夜久久久精品影院视色 | 免费一级大毛片a一观看不卡 | 亚洲欧洲日产国码二区首页 | 国产日产欧美一区二区三区 | 欧美日韩乱码毛片免费观看 | 国产欧美日韩一区 | 久久996国产精品免费 | 五月亭亭免费高清在线 | 免费福利视频在线观看 | 手机看片福利 | 在线观看人成午夜影片 | 午夜私人 | 奇米影视狠狠 | www.久久综合| 强制高潮18xxxxhd日韩 | 中国特级黄一级真人毛片 | 黄色高清网站 | 亚洲高清免费在线观看 | 凹凸精品视频分类国产品免费 | 婷婷精品进入 | 成人在线视频免费观看 | 国产成人精品免费久久久久 | 久久成人免费大片 | 99爱在线观看精品视频 | 欧美 亚洲 激情 | 国产成人99精品免费观看 | 亚洲精品久久国产小说 | 久久精品视频热 | 中国产一级毛片 | 97精品国产高清在线看入口 | 国产色在线 | 亚洲 国产色在线视频 | 91尤物视频在线观看 | 亚洲欧美精品网站在线观看 |