五月天青色头像情侣网名,国产亚洲av片在线观看18女人,黑人巨茎大战俄罗斯美女,扒下她的小内裤打屁股

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

怎么保證Flink可以高效地讀取數(shù)據(jù)源中的數(shù)據(jù)?

2023-07-10 11:20 作者:ingemar-  | 我要投稿

在現(xiàn)實生產環(huán)境中,為了保證Flink可以高效地讀取數(shù)據(jù)源中的數(shù)據(jù),通常是跟一些分布式消息中件結合使用,例如Apache Kafka。Kafka的特點是分布式、多副本、高可用、高吞吐、可以記錄偏移量等。Flink和Kafka整合可以高效的讀取數(shù)據(jù),并且可以保證Exactly Once(精確一次性語義)


依賴


Apache Flink 集成了通用的 Kafka 連接器,它會盡力與 Kafka client 的最新版本保持同步。該連接器使用的 Kafka client 版本可能會在 Flink 版本之間發(fā)生變化。當前 Kafka client 向后兼容 0.10.0 或更高版本的 Kafka broker。有關 Kafka 兼容性的更多細節(jié),請參考 Kafka 官方文檔。


Kafka Consumer


Flink 的 Kafka consumer 稱為 FlinkKafkaConsumer。它提供對一個或多個 Kafka topics 的訪問。

構造函數(shù)接受以下參數(shù):

  • Topic 名稱或者名稱列表

  • 用于反序列化 Kafka 數(shù)據(jù)的 DeserializationSchema 或者 KafkaDeserializationSchema

  • Kafka 消費者的屬性。需要以下屬性:

  • “bootstrap.servers”(以逗號分隔的 Kafka broker 列表)

  • “group.id” 消費組 ID


怎么保證Flink可以高效地讀取數(shù)據(jù)源中的數(shù)據(jù)?的評論 (共 條)

分享到微博請遵守國家法律
冷水江市| 扶风县| 崇阳县| 来凤县| 轮台县| 敦化市| 通道| 星座| 客服| 财经| 花莲县| 鄂尔多斯市| 侯马市| 安溪县| 天门市| 精河县| 手游| 邹平县| 鹿邑县| 长葛市| 犍为县| 雅安市| 大悟县| 广丰县| 常州市| 锦州市| 武乡县| 岳阳市| 台中县| 鲜城| 无为县| 武安市| 平塘县| 会东县| 大名县| 巴彦县| 扬中市| 桓台县| 友谊县| 漳州市| 雷州市|