jxp2002 发表于 2017-5-23 18:43:06

【Spark九十一】Spark Streaming整合Kafka一些值得关注的问题

  包括Spark Streaming在内的实时计算数据可靠性指的是三种级别:
  1. At most once,数据最多只能接受一次,有可能接收不到
  2. At least once, 数据至少接受一次,有可能重复接收
  3. Exactly once  数据保证被处理并且只被处理一次,
  具体的多读几遍http://spark.apache.org/docs/latest/streaming-kafka-integration.html吧,实在不想总结整理了
页: [1]
查看完整版本: 【Spark九十一】Spark Streaming整合Kafka一些值得关注的问题