【Redis】Redis 持久化之 RDB 與 AOF 詳解

itread01 2020-11-07 16:46:44
redis rdb 持久 aof


## Redis 持久化 我們知道Redis的資料是全部儲存在記憶體中的,如果機器突然GG,那麼資料就會全部丟失,因此需要有持久化機制來保證資料不會因為宕機而丟失。Redis 為我們提供了兩種持久化方案,一種是基於快照,另外一種是基於 AOF 日誌。接下來就來了解一下這兩種方案。 ### 作業系統與磁碟 首先我們需要知道 Redis 資料庫在持久化中扮演了什麼樣的角色,為此我們先來了解資料從 Redis 中到磁碟的這一過程: - 客戶端向資料庫發起 write 指令(資料在客戶端的記憶體中); - 資料庫收到 write 指令和對應的寫資料(資料在服務端記憶體中); - 資料庫呼叫將資料寫入磁碟的系統呼叫函式(資料在系統核心緩衝區); - 作業系統將寫入緩衝區中的資料寫到磁碟控制器中(資料在磁碟緩衝區中); - 磁碟控制器將磁碟緩衝區中的資料寫入磁碟的物理介質中(資料真正寫入磁碟中)。 上面只是簡要介紹了一下過程,畢竟真實的快取級別只會比這更多。不過我們可以從上面瞭解到,資料庫在持久化的過程中主要應該去實現步驟3,也就是將原本在記憶體中的資料持久化到作業系統的核心緩衝區中。至於下面的兩步,則是作業系統需要關心的事,資料庫無能為力。資料庫通常僅在必要的時候會去呼叫將資料從記憶體寫入磁碟的系統呼叫。 ### 持久化方案 對於上面我們所述的持久化過程,Redis 提供了以下幾種不同的持久化方案: - 利用 RDB 持久化在指定的時間間隔生成資料集的時間點快照(point-in-time ); - 利用 AOF 持久化將伺服器收到的所有寫操作命令記錄下來,並在伺服器重新啟動的時候,利用這些命令來恢復資料集。AOF 的命令使用的是與 Redis 本身協議的命令一致,通過追加的方式將資料寫入備份檔案中,同時當備份檔案過大時,Redis 也能對備份檔案進行重壓縮。 - 如果僅希望資料只在資料庫執行時存在,那麼還可以完全禁用掉持久化機制; - Redis還可以同時使用 AOF 持久化和 RDB 持久化。在這種情況下,當 AOF 重啟時,會優先使用 AOF 檔案去恢復原始資料。因為 AOF 中儲存的資料通常比 RDB 中儲存的資料更加完整。 接下來就重點講解 RDB 持久化方案與 AOF 持久化方案之間的異同。 ## RDB 持久化 `RDB(Redis Database)` 通過快照的形式將資料儲存到磁碟中。所謂快照,可以理解為在某一時間點將資料集拍照並儲存下來。Redis 通過這種方式可以在指定的時間間隔或者執行特定命令時將當前系統中的資料儲存備份,以二進位制的形式寫入磁碟中,預設檔名為`dump.rdb`。 RDB 的觸發有三種機制,執行`save`命令;執行`bgsave`命令;在`redis.config`中配置自動化。 ### save 觸發 Redis是單執行緒程式,這個執行緒要同時負責多個客戶端套接字的併發讀寫操作和記憶體結構的邏輯讀寫。而save命令會阻塞當前的Redis伺服器,在執行該命令期間,Redis無法處理其他的命令,直到整個RDB過程完成為止,用一張圖描述以下: ![](https://img2020.cnblogs.com/blog/1614350/202011/1614350-20201107153903214-1937165420.png) 當這條指令執行完畢,將RDB檔案儲存下來後,才能繼續去響應請求。這種方式用於新機器上資料的備份還好,如果用在生產上,那麼簡直是災難,資料量過於龐大,阻塞的時間點過長。這種方式並不可取。 ### bgsave 觸發 為了不阻塞線上的業務,那麼Redis就必須一邊持久化,一邊響應客戶端的請求。所以在執行`bgsave`時可以通過`fork`一個子程序,然後通過這個子程序來處理接下來所有的儲存工作,父程序就可以繼續響應請求而無需去關心`I/O`操作。 ![](https://img2020.cnblogs.com/blog/1614350/202011/1614350-20201107153930593-1648469936.png) ### redis.config 配置 上述兩種方式都需要我們在客戶端中去執行`save`或者`bgsave`命令,在生產情況下我們更多地需要是自動化的觸發機制,那麼Redis就提供了這種機制,我們可以在`redus.config`中對持久化進行配置: ```config ################################ SNAPSHOTTING ################################ # # Save the DB on disk: # # save # # Will save the DB if both the given number of seconds and the given # number of write operations against the DB occurred. # # In the example below the behaviour will be to save: # after 900 sec (15 min) if at least 1 key changed # after 300 sec (5 min) if at least 10 keys changed # after 60 sec if at least 10000 keys changed # # Note: you can disable saving completely by commenting out all "save" lines. # # It is also possible to remove all the previously configured save # points by adding a save directive with a single empty string argument # like in the following example: # # save "" save 900 1 save 300 10 save 60 10000 ``` 像上述這樣在`redis.config`中進行配置,如`save 900 1` 是指在 900 秒內,如果有一個或一個以上的修改操作,那麼就自動進行一次自動化備份;`save 300 10`同樣意味著在 300 秒內如果有十次或以上的修改操作,那麼就進行資料備份,依次類推。 如果你不想進行資料持久化,只希望資料只在資料庫執行時存在於記憶體中,那麼你可以通過 `save ""`禁止掉資料持久化。 這裡再介紹幾個在配置檔案中與 RDB 持久化相關的係數: - `stop-writes-on-bgsave-error`:預設值為yes,即當最後一次 RDB 持久化儲存檔案失敗後,拒絕接收資料。這樣做的好處是可以讓使用者意識到資料並沒有被成功地持久化,避免後續更嚴重的業務問題的發生; - `rdbcompression`:預設值為yes,即代表將儲存到磁碟中的快照進行壓縮處理; - `rdbchecksum`:預設值為yes,在快照儲存完成後,我們還可以通過CRC64演算法來對資料進行校驗,這會提升一定的效能消耗; - `dbfilename`:預設值為`dump.rdb`,即將快照儲存命名為`dump.rdb`; - `dir`:設定快照的儲存路徑。 ### COW機制 先前提到了Redis為了不阻塞線上業務,所以需要一邊持久化一邊響應客戶端的請求,因此`fork`出一個子程序來處理這些儲存工作。那麼具體這個`fork`出來的子程序是如何做到使得Redis可以一邊做持久化操作,一邊做響應工作呢?這就涉及到`COW (Copy On Write)`機制,那我們具體講解以下這個COW機制。 Redis在持久化的時候會去呼叫`glibc`的函式`fork`出一個子程序,快照持久化完成交由子程序來處理,父程序繼續響應客戶端的請求。而在子程序剛剛產生時,它其實使用的是父程序中的程式碼段和資料段。所以`fork`之後,kernel會將父程序中所有的記憶體頁的許可權都設定為`read-only`,然後子程序的地址空間指向父程序的地址空間。當父程序寫記憶體時,CPU硬體檢測到記憶體頁是`read-only`的,就會觸發頁異常中斷(page-fault),陷入 kernel 的一箇中斷例程。中斷例程中,kernel就會把觸發的異常的頁複製一份,於是父子程序各自持有獨立的一份。而此時子程序相應的資料還是沒有發生變化,依舊是程序產生時那一瞬間的資料,故而子程序可以安心地遍歷資料,進行序列化寫入磁碟了。 隨著父程序修改操作的持續進行,越來越多的共享頁面將會被分離出來,記憶體就會持續增長,但是也不會超過原有資料記憶體的兩倍大小(Redis例項裡的冷資料佔的比例往往是比較高的,所以很少出現所有頁面都被分離的情況)。 COW機制的好處很明顯:首先可以減少分配和複製時帶來的瞬時延遲,還可以減少不必要的資源分配。但是缺點也很明顯:如果父程序接收到大量的寫操作,那麼將會產生大量的分頁錯誤(頁異常中斷page-fault)。 ### RDB的優劣 相信通過上面內容的講解,對於RDB持久化以該有一個大致的瞭解,那麼接下來簡單總結下RDB的優勢以及它的劣勢: 優勢: - RDB 是一個非常緊湊(compact)的檔案(儲存二進位制資料),它儲存了 Redis 在某個時間點上的資料集。 這種檔案非常適合用於進行備份: 比如說,你可以在最近的 24 小時內,每小時備份一次 RDB 檔案,並且在每個月的每一天,也備份一個 RDB 檔案。 這樣的話,即使遇上問題,也可以隨時將資料集還原到不同的版本; - RDB 非常適用於災難恢復(disaster recovery):它只有一個檔案,並且內容都非常緊湊,可以(在加密後)將它傳送到別的資料中心; - RDB 可以最大化 Redis 的效能:父程序在儲存 RDB 檔案時唯一要做的就是 `fork` 出一個子程序,然後這個子程序就會處理接下來的所有儲存工作,父程序無須執行任何磁碟 I/O 操作; - RDB 在恢復大資料集時的速度比 AOF 的恢復速度要快。 劣勢: - 如果業務上需要儘量避免在伺服器故障時丟失資料,那麼 RDB 並不適合。 雖然 Redis 允許在設定不同的儲存點(save point)來控制儲存 RDB 檔案的頻率, 但是, 由於 RDB 檔案需要儲存整個資料集的狀態, 所以這個過程並不快,可能會至少 5 分鐘才能完成一次 RDB 檔案儲存。 在這種情況下, 一旦發生故障停機, 就可能會丟失好幾分鐘的資料。 - 每次儲存 RDB 的時候,Redis 都要 `fork()` 出一個子程序,並由子程序來進行實際的持久化工作。 在資料集比較龐大時, `fork()` 可能會非常耗時,造成伺服器在某某毫秒內停止處理客戶端; 如果資料集非常巨大,並且 CPU 時間非常緊張的話,那麼這種停止時間甚至可能會長達整整一秒。 雖然 AOF 重寫也需要進行 `fork()` ,但無論 AOF 重寫的執行間隔有多長,資料的耐久性都不會有任何損失。 ## AOF 持久化 > The AOF persistence logs every write operation received by the server, that will be played again at server startup, reconstructing the original dataset. Commands are logged using the same format as the Redis protocol itself, in an append-only fashion. Redis is able to rewrite the log in the background when it gets too big. RDB 持久化是全量備份,比較耗時,所以Redis就提供了一種更為高效地`AOF(Append Only-file)`持久化方案,簡單描述它的工作原理:AOF日誌儲存的是Redis伺服器指令序列,AOF只記錄對記憶體進行修改的指令記錄。 在伺服器從新啟動時,Redis就會利用 AOF 日誌中記錄的這些操作從新構建原始資料集。 ![](https://img2020.cnblogs.com/blog/1614350/202011/1614350-20201107153958305-159489071.png) Redis會在收到客戶端修改指令後,進行引數修改、邏輯處理,如果沒有問題,就立即將該指令文字儲存到 AOF 日誌中,也就是說,先執行指令才將日誌存檔。這點不同於 leveldb、hbase等儲存引擎,它們都是先儲存日誌再做邏輯處理。 ### AOF 的觸發配置 AOF也有不同的觸發方案,這裡簡要描述以下三種觸發方案: - always:每次發生資料修改就會立即記錄到磁碟檔案中,這種方案的完整性好但是IO開銷很大,效能較差; - everysec:在每一秒中進行同步,速度有所提升。但是如果在一秒內宕機的話可能失去這一秒內的資料; - no:預設配置,即不使用 AOF 持久化方案。 可以在`redis.config`中進行配置,`appendonly no`改換為yes,再通過註釋或解註釋`appendfsync`配置需要的方案: ```config ############################## APPEND ONLY MODE ############################### # By default Redis asynchronously dumps the dataset on disk. This mode is # good enough in many applications, but an issue with the Redis process or # a power outage may result into a few minutes of writes lost (depending on # the configured save points). # # The Append Only File is an alternative persistence mode that provides # much better durability. For instance using the default data fsync policy # (see later in the config file) Redis can lose just one second of writes in a # dramatic event like a server power outage, or a single write if something # wrong with the Redis process itself happens, but the operating system is # still running correctly. # # AOF and RDB persistence can be enabled at the same time without problems. # If the AOF is enabled on startup Redis will load the AOF, that is the file # with the better durability guarantees. # # Please check http://redis.io/topics/persistence for more information. appendonly no # The name of the append only file (default: "appendonly.aof") appendfilename "appendonly.aof" # ... 省略 # appendfsync always appendfsync everysec # appendfsync no ``` ### AOF 重寫機制 隨著Redis的執行,AOF的日誌會越來越長,如果例項宕機重啟,那麼重放整個AOF將會變得十分耗時,而在日誌記錄中,又有很多無意義的記錄,比如我現在將一個數據 incr 一千次,那麼就不需要去記錄這1000次修改,只需要記錄最後的值即可。所以就需要進行 AOF 重寫。 Redis 提供了`bgrewriteaof`指令用於對AOF日誌進行重寫,該指令執行時會開闢一個子程序對記憶體進行遍歷,然後將其轉換為一系列的 Redis 的操作指令,再序列化到一個日誌檔案中。完成後再替換原有的AOF檔案,至此完成。 同樣的也可以在`redis.config`中對重寫機制的觸發進行配置: 通過將`no-appendfsync-on-rewrite`設定為yes,開啟重寫機制;`auto-aof-rewrite-percentage 100`意為比上次從寫後文件大小增長了100%再次觸發重寫; `auto-aof-rewrite-min-size 64mb`意為當檔案至少要達到64mb才會觸發制動重寫。 ```config # ... 省略 no-appendfsync-on-rewrite no # Automatic rewrite of the append only file. # ... 省略 auto-aof-rewrite-percentage 100 auto-aof-rewrite-min-size 64mb ``` 重寫也是會耗費資源的,所以當磁碟空間足夠的時候,這裡可以將 64mb 調整更大寫,降低重寫的頻率,達到優化效果。 ### fsync 函式 再將AOF配置為`appendfsync everysec`之後,Redis在處理一條命令後,並不直接立即呼叫`write`將資料寫入 AOF 檔案,而是先將資料寫入AOF buffer(server.aof_buf)。呼叫write和命令處理是分開的,Redis只在每次進入`epoll_wait`之前做 write 操作。 ```c /* Write the append only file buffer on disk.  *  * Since we are required to write the AOF before replying to the client,  * and the only way the client socket can get a write is entering when the  * the event loop, we accumulate all the AOF writes in a memory  * buffer and write it on disk using this function just before entering  * the event loop again.  *  * About the 'force' argument:  *  * When the fsync policy is set to 'everysec' we may delay the flush if there  * is still an fsync() going on in the background thread, since for instance  * on Linux write(2) will be blocked by the background fsync anyway.  * When this happens we remember that there is some aof buffer to be  * flushed ASAP, and will try to do that in the serverCron() function.  *  * However if force is set to 1 we'll write regardless of the background  * fsync. */ #define AOF_WRITE_LOG_ERROR_RATE 30 /* Seconds between errors logging. */ void flushAppendOnlyFile(int force) { // aofWrite 呼叫 write 將AOF buffer寫入到AOF檔案,處理了ENTR,其它沒什麼 ssize_t nwritten = aofWrite(server.aof_fd,server.aof_buf,sdslen(server.aof_buf)); /* Handle the AOF write error. */ if (server.aof_fsync == AOF_FSYNC_ALWAYS) { /* We can't recover when the fsync policy is ALWAYS since the           * reply for the client is already in the output buffers, and we           * have the contract with the user that on acknowledged write data           * is synced on disk. */ serverLog(LL_WARNING,"Can't recover from AOF write error when the AOF fsync policy is 'always'. Exiting..."); exit(1); } else { return; /* We'll try again on the next call... */ } else { /* Successful write(2). If AOF was in error state, restore the          * OK state and log the event. */ } /* Perform the fsync if needed. */ if (server.aof_fsync == AOF_FSYNC_ALWAYS) { // redis_fsync是一個巨集,Linux實際為fdatasync,其它為fsync // 所以最好不要將redis.conf中的appendfsync設定為always,這極影響效能 redis_fsync(server.aof_fd); /* Let's try to get this data on the disk */ } else if ((server.aof_fsync == AOF_FSYNC_EVERYSEC && server.unixtime > server.aof_last_fsync)) { // 如果已在sync狀態,則不再重複 // BIO執行緒會間隔設定sync_in_progress // if (server.aof_fsync == AOF_FSYNC_EVERYSEC) //     sync_in_progress = bioPendingJobsOfType(BIO_AOF_FSYNC) != 0; if (!sync_in_progress) // everysec效能並不那麼糟糕,因為它:後臺方式執行fsync。 // Redis並不是嚴格意義上的單執行緒,實際上它建立一組BIO執行緒,專門處理阻塞和慢操作 // 這些操作就包括FSYNC,另外還有關閉檔案和記憶體的free兩個操作。 // 不像always,EVERYSEC模式並不立即呼叫fsync, // 而是將這個操作丟給了BIO執行緒非同步執行, // BIO執行緒在程序啟動時被建立,兩者間通過bio_jobs和bio_pending兩個 // 全域性物件互動,其中主執行緒負責寫,BIO執行緒負責消費。 aof_background_fsync(server.aof_fd); server.aof_last_fsync = server.unixtime; } } ``` Redis另外的兩種策略,一個是永不呼叫 fsync,讓作業系統來決定合適同步磁碟,這樣做很不安全;另一個是來一個指令就呼叫 fsync 一次,這種導致結果非常慢。這兩種策略在生產環境中基本都不會使用,瞭解一下即可。 ### AOF 的優劣 - AOF 持久化的預設策略為每秒鐘 `fsync` 一次,在這種配置下,Redis 仍然可以保持良好的效能,並且就算髮生故障停機,也最多也只會丟失掉一秒鐘內的資料; - AOF 檔案是一個只進行追加操作的日誌檔案(append only log), 因此對 AOF 檔案的寫入不需要進行 `seek` , 即使日誌因為某些原因而包含了未寫入完整的命令(比如寫入時磁碟已滿,寫入中途停機,等等), `redis-check-aof` 工具也可以輕易地修復這種問題。 - Redis 可以在 AOF 檔案體積變得過大時,自動地在後臺對 AOF 進行重寫: 重寫後的新 AOF 檔案包含了恢復當前資料集所需的最小命令集合。 整個重寫操作是絕對安全的,因為 Redis 在建立新 AOF 檔案的過程中,會繼續將命令追加到現有的 AOF 檔案裡面,即使重寫過程中發生停機,現有的 AOF 檔案也不會丟失。 而一旦新 AOF 檔案建立完畢,Redis 就會從舊 AOF 檔案切換到新 AOF 檔案,並開始對新 AOF 檔案進行追加操作。 - AOF 檔案有序地儲存了對資料庫執行的所有寫入操作, 這些寫入操作以 Redis 協議的格式儲存, 因此 AOF 檔案的內容非常容易被人讀懂, 對檔案進行分析(parse)也很輕鬆。 匯出(export) AOF 檔案也非常簡單: 舉個例子, 如果你不小心執行了 [FLUSHALL](http://redisdoc.com/database/flushall.html#flushall) 命令, 但只要 AOF 檔案未被重寫, 那麼只要停止伺服器, 移除 AOF 檔案末尾的 [FLUSHALL](http://redisdoc.com/database/flushall.html#flushall) 命令, 並重啟 Redis , 就可以將資料集恢復到 [FLUSHALL](http://redisdoc.com/database/flushall.html#flushall) 執行之前的狀態。 ## AOF 的缺點 - 對於相同的資料集來說,AOF 檔案的體積通常要大於 RDB 檔案的體積。 - 根據所使用的 `fsync` 策略,AOF 的速度可能會慢於 RDB 。 在一般情況下, 每秒 `fsync` 的效能依然非常高, 而關閉 `fsync` 可以讓 AOF 的速度和 RDB 一樣快, 即使在高負荷之下也是如此。 不過在處理巨大的寫入載入時,RDB 可以提供更有保證的最大延遲時間(latency)。 - AOF 在過去曾經發生過這樣的 bug : 因為個別命令的原因,導致 AOF 檔案在重新載入時,無法將資料集恢復成儲存時的原樣。 ## 混合持久化 重啟 Redis 時,如果使用 RDB 來恢復記憶體狀態,會丟失大量資料。而如果只使用 AOF 日誌重放,那麼效率又太過於低下。Redis 4.0 提供了混合持久化方案,將 RDB 檔案的內容和增量的 AOF 日誌檔案存在一起。這裡的 AOF 日誌不再是全量的日誌,而是自 RDB 持久化開始到持久化結束這段時間發生的增量 AOF 日誌,通常這部分日誌很小。 ![](https://img2020.cnblogs.com/blog/1614350/202011/1614350-20201107154043136-1912792479.png) 於是在 Redis 重啟的時候,可以先載入 RDB 的內容,然後再重放增量 AOF 日誌,就可以完全替代之前的 AOF 全量重放,重啟效率因此得到大幅提升。 ## 參考文章: - [【Redis Persistence】](https://redis.io/topics/persistence); - [【Redis persistence demystified】](http://antirez.com/post/redis-persistence-demystified.html); - [【Redis的appendfsync引數詳解】](https://blog.csdn.net/aquester/article/details/84869158); - 《Redis深度歷險 核心原理與應用實
版权声明
本文为[itread01]所创,转载请带上原文链接,感谢
https://www.itread01.com/content/1604736543.html

  1. 【计算机网络 12(1),尚学堂马士兵Java视频教程
  2. 【程序猿历程,史上最全的Java面试题集锦在这里
  3. 【程序猿历程(1),Javaweb视频教程百度云
  4. Notes on MySQL 45 lectures (1-7)
  5. [computer network 12 (1), Shang Xuetang Ma soldier java video tutorial
  6. The most complete collection of Java interview questions in history is here
  7. [process of program ape (1), JavaWeb video tutorial, baidu cloud
  8. Notes on MySQL 45 lectures (1-7)
  9. 精进 Spring Boot 03:Spring Boot 的配置文件和配置管理,以及用三种方式读取配置文件
  10. Refined spring boot 03: spring boot configuration files and configuration management, and reading configuration files in three ways
  11. 精进 Spring Boot 03:Spring Boot 的配置文件和配置管理,以及用三种方式读取配置文件
  12. Refined spring boot 03: spring boot configuration files and configuration management, and reading configuration files in three ways
  13. 【递归,Java传智播客笔记
  14. [recursion, Java intelligence podcast notes
  15. [adhere to painting for 386 days] the beginning of spring of 24 solar terms
  16. K8S系列第八篇(Service、EndPoints以及高可用kubeadm部署)
  17. K8s Series Part 8 (service, endpoints and high availability kubeadm deployment)
  18. 【重识 HTML (3),350道Java面试真题分享
  19. 【重识 HTML (2),Java并发编程必会的多线程你竟然还不会
  20. 【重识 HTML (1),二本Java小菜鸟4面字节跳动被秒成渣渣
  21. [re recognize HTML (3) and share 350 real Java interview questions
  22. [re recognize HTML (2). Multithreading is a must for Java Concurrent Programming. How dare you not
  23. [re recognize HTML (1), two Java rookies' 4-sided bytes beat and become slag in seconds
  24. 造轮子系列之RPC 1:如何从零开始开发RPC框架
  25. RPC 1: how to develop RPC framework from scratch
  26. 造轮子系列之RPC 1:如何从零开始开发RPC框架
  27. RPC 1: how to develop RPC framework from scratch
  28. 一次性捋清楚吧,对乱糟糟的,Spring事务扩展机制
  29. 一文彻底弄懂如何选择抽象类还是接口,连续四年百度Java岗必问面试题
  30. Redis常用命令
  31. 一双拖鞋引发的血案,狂神说Java系列笔记
  32. 一、mysql基础安装
  33. 一位程序员的独白:尽管我一生坎坷,Java框架面试基础
  34. Clear it all at once. For the messy, spring transaction extension mechanism
  35. A thorough understanding of how to choose abstract classes or interfaces, baidu Java post must ask interview questions for four consecutive years
  36. Redis common commands
  37. A pair of slippers triggered the murder, crazy God said java series notes
  38. 1、 MySQL basic installation
  39. Monologue of a programmer: despite my ups and downs in my life, Java framework is the foundation of interview
  40. 【大厂面试】三面三问Spring循环依赖,请一定要把这篇看完(建议收藏)
  41. 一线互联网企业中,springboot入门项目
  42. 一篇文带你入门SSM框架Spring开发,帮你快速拿Offer
  43. 【面试资料】Java全集、微服务、大数据、数据结构与算法、机器学习知识最全总结,283页pdf
  44. 【leetcode刷题】24.数组中重复的数字——Java版
  45. 【leetcode刷题】23.对称二叉树——Java版
  46. 【leetcode刷题】22.二叉树的中序遍历——Java版
  47. 【leetcode刷题】21.三数之和——Java版
  48. 【leetcode刷题】20.最长回文子串——Java版
  49. 【leetcode刷题】19.回文链表——Java版
  50. 【leetcode刷题】18.反转链表——Java版
  51. 【leetcode刷题】17.相交链表——Java&python版
  52. 【leetcode刷题】16.环形链表——Java版
  53. 【leetcode刷题】15.汉明距离——Java版
  54. 【leetcode刷题】14.找到所有数组中消失的数字——Java版
  55. 【leetcode刷题】13.比特位计数——Java版
  56. oracle控制用户权限命令
  57. 三年Java开发,继阿里,鲁班二期Java架构师
  58. Oracle必须要启动的服务
  59. 万字长文!深入剖析HashMap,Java基础笔试题大全带答案
  60. 一问Kafka就心慌?我却凭着这份,图灵学院vip课程百度云