談到分庫分表中間件時,我們自然而然的會想到 ShardingSphere-JDBC 。
這篇文章,我們聊聊 ShardingSphere-JDBC 相關知識點,并實戰演示一番。
【資料圖】
1 ShardingSphere 生態
Apache ShardingSphere 是一款分布式的數據庫生態系統,它包含兩大產品:
ShardingSphere-Proxy ShardingSphere-JDBC▍一、ShardingSphere-Proxy
ShardingSphere-Proxy 被定位為透明化的數據庫代理端,提供封裝了數據庫二進制協議的服務端版本,用于完成對異構語言的支持。
代理層介于應用程序與數據庫間,每次請求都需要做一次轉發,請求會存在額外的時延。
這種方式對于應用非常友好,應用基本零改動,和語言無關,可以通過連接共享減少連接數消耗。
▍二、ShardingSphere-JDBC
ShardingSphere-JDBC 是 ShardingSphere 的第一個產品,也是 ShardingSphere 的前身, 我們經常簡稱之為:sharding-jdbc 。
它定位為輕量級 Java 框架,在 Java 的 JDBC 層提供的額外服務。它使用客戶端直連數據庫,以 jar 包形式提供服務,無需額外部署和依賴,可理解為增強版的 JDBC 驅動,完全兼容 JDBC 和各種 ORM 框架。
當我們在 Proxy 和 JDBC 兩種模式選擇時,可以參考下表對照:
JDBC | Proxy | |
---|---|---|
數據庫 |
| MySQL/PostgreSQL |
連接消耗數 |
| 低 |
異構語言 |
| 任意 |
性能 |
| 損耗略高 |
無中心化 |
| 否 |
靜態入口 |
| 有 |
越來越多的公司都在生產環境使用了 sharding-jdbc ,最核心的原因就是:簡單(原理簡單,易于實現,方便運維)。
2 基本原理
在后端開發中,JDBC 編程是最基本的操作。不管 ORM 框架是 Mybatis 還是 Hibernate ,亦或是 spring-jpa ,他們的底層實現是 JDBC 的模型。
sharding-jdbc 的本質上就是實現 JDBC 的核心接口。
接口 | 實現類 |
---|---|
DataSource | ShardingDataSource |
Connection | ShardingConnection |
Statement | ShardingStatement |
PreparedStatement | ShardingPreparedStatement |
ResultSet | ShardingResultSet |
雖然我們理解了 sharding-jdbc 的本質,但是真正實現起來還有非常多的細節,下圖展示了 Prxoy 和 JDBC 兩種模式的核心流程。
1.SQL 解析
分為詞法解析和語法解析。 先通過詞法解析器將 SQL 拆分為一個個不可再分的單詞。再使用語法解析器對 SQL 進行理解,并最終提煉出解析上下文。
解析上下文包括表、選擇項、排序項、分組項、聚合函數、分頁信息、查詢條件以及可能需要修改的占位符的標記。
2.執行器優化
合并和優化分片條件,如 OR 等。
3.SQL 路由
根據解析上下文匹配用戶配置的分片策略,并生成路由路徑。目前支持分片路由和廣播路由。
4.SQL 改寫
將 SQL 改寫為在真實數據庫中可以正確執行的語句。SQL 改寫分為正確性改寫和優化改寫。
5.SQL 執行
通過多線程執行器異步執行。
6.結果歸并
將多個執行結果集歸并以便于通過統一的 JDBC 接口輸出。結果歸并包括流式歸并、內存歸并和使用裝飾者模式的追加歸并這幾種方式。
本文的重點在于實戰層面, sharding-jdbc 的實現原理細節我們會在后續的文章一一給大家呈現 。
3 實戰案例
筆者曾經為武漢一家 O2O 公司訂單服務做過分庫分表架構設計 ,當企業用戶創建一條采購訂單 , 會生成如下記錄:
訂單基礎表t_ent_order:單條記錄 訂單詳情表t_ent_order_detail:單條記錄訂單明細表t_ent_order_item:N條記錄訂單數據采用了如下的分庫分表策略:
訂單基礎表按照 ent_id (企業用戶編號) 分庫 ,訂單詳情表保持一致;訂單明細表按照 ent_id (企業用戶編號) 分庫,同時也要按照 ent_id (企業編號) 分表。首先創建 4 個庫,分別是:ds_0、ds_1、ds_2、ds_3 。
這四個分庫,每個分庫都包含 訂單基礎表 , 訂單詳情表 ,訂單明細表 。但是因為明細表需要分表,所以包含多張表。
然后 springboot 項目中配置依賴 :
org.apache.shardingsphere sharding-jdbc-spring-boot-starter 4.1.1
配置文件中配置如下:
配置數據源,上面配置數據源是: ds0、ds1、ds2、ds3 ;配置打印日志,也就是:sql.show ,在測試環境建議打開 ,便于調試;配置哪些表需要分庫分表 ,在 shardingsphere.datasource.sharding.tables 節點下面配置:上圖中我們看到配置分片規則包含如下兩點:
1.真實節點
對于我們的應用來講,我們查詢的**邏輯表**是:t_ent_order_item 。
它們在數據庫中的真實形態是:`t_ent_order_item_0` 到 `t_ent_order_item_7`。
真實數據節點是指數據分片的最小單元,由數據源名稱和數據表組成。
訂單明細表的真實節點是:`ds$->{0..3}.t_ent_order_item_$->{0..7}` 。
2.分庫分表算法
配置分庫策略和分表策略 , 每種策略都需要配置分片字段( sharding-columns )和分片算法。
4 基因法 & 自定義復合分片算法
分片算法和阿里開源的數據庫中間件 cobar 路由算法非常類似的。
假設現在需要將訂單表平均拆分到4個分庫 shard0 ,shard1 ,shard2 ,shard3 。
首先將 0-1023 平均分為4個區段:0-255,256-511,512-767,768-1023,然后對字符串(或子串,由用戶自定義)做 hash, hash 結果對 1024 取模,最終得出的結果 slot落入哪個區段,便路由到哪個分庫。
看起來分片算法很簡單,但我們需要按照訂單 ID 查詢訂單信息時依然需要路由四個分片,效率不高,那么如何優化呢 ?
答案是:基因法& 自定義復合分片算法。
基因法是指在訂單 ID 中攜帶企業用戶編號信息,我們可以在創建訂單 order_id時使用雪花算法,然后將 slot的值保存在 10位工作機器 ID里。
通過訂單 order_id 可以反查出 slot, 就可以定位該用戶的訂單數據存儲在哪個分片里。
Integer getWorkerId(Long orderId) { Long workerId = (orderId >> 12) & 0x03ff; return workerId.intValue();}
下圖展示了訂單 ID 使用雪花算法的生成過程,生成的編號會攜帶企業用戶 ID 信息。
解決了分布式 ID 問題,接下來的一個問題:sharding-jdbc 可否支持按照訂單 ID ,企業用戶 ID 兩個字段來決定分片路由嗎?
答案是:自定義復合分片算法。我們只需要實現 ComplexKeysShardingAlgorithm類即可。
復合分片的算法流程非常簡單:
1.分片鍵中有主鍵值,則直接通過主鍵解析出路由分片;
2.分片鍵中不存在主鍵值 ,則按照其他分片字段值解析出路由分片。
5 擴容方案
既然做了分庫分表,如何實現平滑擴容也是一個非常有趣的話題。
在數據同步之前,需要梳理遷移范圍。
1.業務唯一主鍵;
在進行數據同步前,需要先梳理所有表的唯一業務 ID,只有確定了唯一業務 ID 才能實現數據的同步操作。
需要注意的是:業務中是否有使用數據庫自增 ID 做為業務 ID 使用的,如果有需要業務先進行改造 。另外確保每個表是否都有唯一索引,一旦表中沒有唯一索引,就會在數據同步過程中造成數據重復的風險,所以我們先將沒有唯一索引的表根據業務場景增加唯一索引(有可能是聯合唯一索引)。
2.遷移哪些表,遷移后的分庫分表規則;
分表規則不同決定著 rehash 和數據校驗的不同。需逐個表梳理是用戶ID緯度分表還是非用戶ID緯度分表、是否只分庫不分表、是否不分庫不分表等等。
接下來,進入數據同步環節。
整體方案見下圖,數據同步基于 binlog ,獨立的中間服務做同步,對業務代碼無侵入。
首先需要做歷史數據全量同步:也就是將舊庫遷移到新庫。
單獨一個服務,使用游標的方式從舊庫分片 select 語句,經過 rehash 后批量插入 (batch insert)到新庫,需要配置jdbc 連接串參數 rewriteBatchedStatements=true 才能使批處理操作生效。
因為歷史數據也會存在不斷的更新,如果先開啟歷史數據全量同步,則剛同步完成的數據有可能不是最新的。
所以我們會先開啟增量數據單向同步(從舊庫到新庫),此時只是開啟積壓 kafka 消息并不會真正消費;然后在開始歷史數據全量同步,當歷史全量數據同步完成后,在開啟消費 kafka 消息進行增量數據同步(提高全量同步效率減少積壓也是關鍵的一環),這樣來保證遷移數據過程中的數據一致。
增量數據同步考慮到灰度切流穩定性、容災 和可回滾能力 ,采用實時雙向同步方案,切流過程中一旦新庫出現穩定性問題或者新庫出現數據一致問題,可快速回滾切回舊庫,保證數據庫的穩定和數據可靠。
增量數據實時同步的大體思路 :
1.過濾循環消息
需要過濾掉循環同步的 binlog 消息 ;
2.數據合并
同一條記錄的多條操作只保留最后一條。為了提高性能,數據同步組件接到 kafka 消息后不會立刻進行數據流轉,而是先存到本地阻塞隊列,然后由本地定時任務每X秒將本地隊列中的N條數據進行數據流轉操作。此時N條數據有可能是對同一張表同一條記錄的操作,所以此處只需要保留最后一條(類似于 redis aof 重寫);
3.update 轉 insert
數據合并時,如果數據中有 insert + update 只保留最后一條 update ,會執行失敗,所以此處需要將 update 轉為 insert 語句 ;
4.按新表合并
將最終要提交的 N 條數據,按照新表進行拆分合并,這樣可以直接按照新表緯度進行數據庫批量操作,提高插入效率。
擴容方案文字來自 《256變4096:分庫分表擴容如何實現平滑數據遷移》,筆者做了些許調整。
6 總結
sharding-jdbc 的本質是實現 JDBC 的核心接口,架構相對簡單。
實戰過程中,需要配置數據源信息,邏輯表對應的真實節點和分庫分表策略(分片字段和分片算法)
實現分布式主鍵直接路由到對應分片,則需要使用基因法 & 自定義復合分片算法。
平滑擴容的核心是全量同步和實時雙向同步,工程上有不少細節。
實戰代碼地址:
https://github.com/makemyownlife/shardingsphere-jdbc-demo
參考資料:
256變4096:分庫分表擴容如何實現平滑數據遷移?黃東旭:分布式數據庫歷史、發展趨勢與 TiDB 架構如果我的文章對你有所幫助,還請幫忙點贊、在看、轉發一下,你的支持會激勵我輸出更高質量的文章,非常感謝!
凡注有"環球傳媒網"或電頭為"環球傳媒網"的稿件,均為環球傳媒網獨家版權所有,未經許可不得轉載或鏡像;授權轉載必須注明來源為"環球傳媒網",并保留"環球傳媒網"的電頭。