HBase:基本Spark

2018-08-22 15:56 更新

基本Spark

本節(jié)討論最低和最簡單級別的Spark HBase集成。所有其他交互點都建立在此處描述的概念之上。

所有Spark和HBase集成的根源都是HBaseContext。HBaseContext接受HBase配置并將它們推送到Spark執(zhí)行程序。這允許我們在靜態(tài)位置為每個Spark Executor建立一個HBase連接。

作為參考,Spark Executors可以與Region Servers位于相同的節(jié)點上,也可以位于不同的節(jié)點上,不依賴于co-location。將每個Spark Executor都視為多線程客戶端應(yīng)用程序。這允許在執(zhí)行程序上運行的任何Spark任務(wù)訪問共享的Connection對象。

HBaseContext用法示例

本示例演示如何使用HBaseContext在Scala的RDD上執(zhí)行foreachPartition:

val sc = new SparkContext("local", "test")
val config = new HBaseConfiguration()

...

val hbaseContext = new HBaseContext(sc, config)

rdd.hbaseForeachPartition(hbaseContext, (it, conn) => {
 val bufferedMutator = conn.getBufferedMutator(TableName.valueOf("t1"))
 it.foreach((putRecord) => {
. val put = new Put(putRecord._1)
. putRecord._2.foreach((putValue) => put.addColumn(putValue._1, putValue._2, putValue._3))
. bufferedMutator.mutate(put)
 })
 bufferedMutator.flush()
 bufferedMutator.close()
})

這是在Java中實現(xiàn)的相同示例:

JavaSparkContext jsc = new JavaSparkContext(sparkConf);

try {
  List<byte[]> list = new ArrayList<>();
  list.add(Bytes.toBytes("1"));
  ...
  list.add(Bytes.toBytes("5"));

  JavaRDD<byte[]> rdd = jsc.parallelize(list);
  Configuration conf = HBaseConfiguration.create();

  JavaHBaseContext hbaseContext = new JavaHBaseContext(jsc, conf);

  hbaseContext.foreachPartition(rdd,
      new VoidFunction<Tuple2<Iterator<byte[]>, Connection>>() {
   public void call(Tuple2<Iterator<byte[]>, Connection> t)
        throws Exception {
    Table table = t._2().getTable(TableName.valueOf(tableName));
    BufferedMutator mutator = t._2().getBufferedMutator(TableName.valueOf(tableName));
    while (t._1().hasNext()) {
      byte[] b = t._1().next();
      Result r = table.get(new Get(b));
      if (r.getExists()) {
       mutator.mutate(new Put(b));
      }
    }

    mutator.flush();
    mutator.close();
    table.close();
   }
  });
} finally {
  jsc.stop();
}

Scala和Java都支持Spark和HBase之間的所有功能,但SparkSQL除外,它支持Spark支持的任何語言。對于本文檔的其余部分,我們現(xiàn)在將重點介紹Scala示例。

上面的示例說明了如何使用連接執(zhí)行foreachPartition。一些其他的Spark基礎(chǔ)功能是支持開箱即用:

bulkPut

用于向HBase大規(guī)模并行發(fā)送put

bulkDelete

用于向HBase大規(guī)模并行發(fā)送delete

bulkGet

用于向HBase大規(guī)模并行發(fā)送get,以創(chuàng)建新的RDD

mapPartition

使用Connection對象執(zhí)行Spark Map功能以允許完全訪問HBase

hBaseRDD

簡化分布式掃描以創(chuàng)建RDD

有關(guān)所有這些功能的示例,請參閱HBase-Spark模塊。

以上內(nèi)容是否對您有幫助:
在線筆記
App下載
App下載

掃描二維碼

下載編程獅App

公眾號
微信公眾號

編程獅公眾號