Structure streaming-file sink

女爷i 2023-02-20 06:29 37阅读 0赞

存储输出到目录中 仅仅支持 append 模式
需求: 把单词和单词的反转组成 json 格式写入到目录中

  1. import org.apache.spark.sql.SparkSession
  2. object FileSink {
  3. def main(args: Array[String]): Unit = {
  4. val spark = SparkSession
  5. .builder()
  6. .master("local[1]")
  7. .appName("Test")
  8. .getOrCreate()
  9. import spark.implicits._
  10. val lines = spark.readStream
  11. .format("socket")
  12. .option("host", "hadoop102")
  13. .option("port", 10001)
  14. .load()
  15. val words = lines.as[String].flatMap(line => {
  16. line.split(" ").map(word => {
  17. (word, word.reverse)
  18. })
  19. }).toDF("原单词", "反单词")
  20. words.writeStream
  21. .outputMode("append")
  22. .format("json") //支持json orc csv
  23. .option("path","./filesink")
  24. .option("checkpointLocation","./ck1") //必须指定checkpointLocation
  25. .start()
  26. .awaitTermination()
  27. }
  28. }

在这里插入图片描述
在这里插入图片描述

发表评论

表情:
评论列表 (有 0 条评论,37人围观)

还没有评论,来说两句吧...

相关阅读