|
ZooKeeperは高可用性を目的として設計されたものではありませんが、ZABプロトコルを用いて極めて高い一貫性を実現するCP(Consistency and Availability:一貫性と可用性)システムです。そのため、レジストリセンター、構成センター、分散ロックなどのシナリオでよく採用されています。 [[323374]] パフォーマンスは非常に制限されており、API もあまりユーザーフレンドリーではありません。xjjdog は、Raft プロトコルに基づいており、より軽量な Etcd または Consul の使用を好みます。 CuratorはNetflixが提供するオープンソースのZooKeeperクライアントであり、現在はApacheのトップレベルプロジェクトです。ネイティブZooKeeperクライアントと比較して、Curatorは抽象度が高く、ZooKeeperクライアント開発を簡素化します。Curatorは、接続の再接続、繰り返しのウェイター登録、NodeExistsException例外処理など、ZooKeeperクライアントの低レベル開発における多くの問題を解決します。 Curatorは一連のモジュールで構成されています。一般的な開発者にとって最もよく使用されるのはcurator-frameworkとcurator-recipesです。これらについては以下で順に紹介します。 1. Mavenの依存関係 Curator の最新バージョン 4.3.0 は、ZooKeeper 3.4.x および 3.5 をサポートしています。ただし、Curator に渡す依存関係は、実際のサーバーで使用されているバージョンと一致している必要があることに注意してください。例えば、現在 ZooKeeper 3.4.6 を使用しています。 - <依存関係>
- <グループID>org.apache.curator</グループID>
- <artifactId>キュレーターフレームワーク</artifactId>
- <バージョン>4.3.0</バージョン>
- <除外>
- <除外>
- <グループID>org.apache.zookeeper</グループID>
- <artifactId>動物園の飼育員</artifactId>
- </除外>
- </除外>
- </依存関係>
- <依存関係>
- <グループID>org.apache.curator</グループID>
- <artifactId>キュレーターレシピ</artifactId>
- <バージョン>4.3.0</バージョン>
- <除外>
- <除外>
- <グループID>org.apache.zookeeper</グループID>
- <artifactId>動物園の飼育員</artifactId>
- </除外>
- </除外>
- </依存関係>
- <依存関係>
- <グループID>org.apache.zookeeper</グループID>
- <artifactId>動物園の飼育員</artifactId>
- <バージョン>3.4.6</バージョン>
- </依存関係>
2.キュレーターフレームワーク 以下は、zk 関連の操作のうち一般的なものの一部です。 - 公共 静的キュレーターフレームワーク getClient() {
- CuratorFrameworkFactory.builder()を返す
- .connectString( "127.0.0.1:2181" )
- .retryPolicy(新しいExponentialBackoffRetry(1000, 3))
- .connectionTimeoutMs(15 * 1000) // 接続タイムアウト、デフォルトは15秒
- .sessionTimeoutMs(60 * 1000) // セッションタイムアウト、デフォルトは60秒
- .namespace( "arch" ) // 名前空間を設定する
- 。建てる();
- }
-
- 公共 static void create (final CuratorFramework client, final String path, final byte[] payload) throws Exception {
- client.create ().creatingParentsIfNeeded().forPath(パス、ペイロード);
- }
-
- 公共 static void createEphemeral(final CuratorFramework client, final String path, final byte[] payload) throws Exception {
- client.create ().withMode(CreateMode.EPHEMERAL).forPath(パス、ペイロード);
- }
-
- 公共 static String createEphemeralSequential(final CuratorFramework client, final String path, final byte[] payload) throws Exception {
- client.create (). withProtection ().withMode(CreateMode.EPHEMERAL_SEQUENTIAL).forPath(path, payload);を返します。
- }
-
- 公共 static void setData(final CuratorFramework client, final String path, final byte[] payload) throws Exception {
- client.setData().forPath(パス、ペイロード);
- }
-
- 公共 static void delete (final CuratorFramework client, final String path) 例外をスローします {
- client.delete() .deletingChildrenIfNeeded ().forPath(path);
- }
-
- 公共 static void guaranteedDelete(final CuratorFramework client, final String path) 例外をスローします {
- client.delete ().guaranteed().forPath(path);
- }
-
- 公共 static String getData(final CuratorFramework client, final String path) は例外をスローします {
- 新しい文字列を返します(client.getData().forPath(path));
- }
-
- 公共 static List<String> getChildren(final CuratorFramework client, final String path) throws Exception {
- client.getChildren().forPath(path)を返します。
- }
3.キュレーターレシピキュレーターレシピ このセクションでは、ZooKeeper の典型的なユースケースをいくつか紹介します。次のセクションでは、主に開発でよく使用されるコンポーネントを紹介します。 イベントリスナー ZooKeeper はウォッチャーを登録することでイベント リスニングをネイティブにサポートしていますが、特に使い勝手が良いわけではなく、開発者がウォッチャーを繰り返し登録する必要があり、非常に面倒です。 Curatorは、ZooKeeperサーバー上のトランザクションを監視するためのCacheを導入します。CacheはCuratorのイベントリスナーのラッパーであり、イベント監視はローカルのキャッシュビューとリモートのZooKeeperビューの比較と近似できます。さらに、Curatorは開発者のためにリスナーの繰り返し登録を自動的に処理するため、ネイティブAPI開発の煩雑なプロセスを大幅に簡素化します。 1) ノードキャッシュ - 公共 静的void nodeCache()は例外をスローします{
- 最終的な文字列パス = "/nodeCache" ;
- 最終的な CuratorFramework クライアント = getClient();
- クライアントを起動します。
-
- 削除(クライアント、パス);
- 作成(クライアント、パス、 「キャッシュ」 .getBytes());
-
- 最終的な NodeCache nodeCache = 新しい NodeCache(client, path);
- nodeCache.start( true );
- nodeCache.getListenable()
- .addListener(() -> System.out .println ( "ノードデータが変更されました。新しいデータは " + new String(nodeCache.getCurrentData().getData())));
-
- setData(クライアント、パス、 「cache1」 .getBytes());
- setData(クライアント、パス、 「cache2」 .getBytes());
-
- スレッド.スリープ(1000);
-
- クライアントを閉じます();
- }
NodeCache は指定されたノードをリッスンできます。リスナーを登録すると、ノードに変更があった場合、対応するリスナーに通知されます。 2) パスキャッシュ パスキャッシュは、ZNode の子ノードのイベント(追加、更新、削除など)をリッスンするために使用されます。パスキャッシュは子ノードの状態を同期し、生成されたイベントは登録された PathChildrenCacheListener に渡されます。 - 公共 静的void pathChildrenCache()は例外をスローします{
- 最終的な文字列パス = "/pathChildrenCache" ;
- 最終的な CuratorFramework クライアント = getClient();
- クライアントを起動します。
-
- 最終的な PathChildrenCache キャッシュ = 新しい PathChildrenCache(client, path, true );
- キャッシュを開始します(PathChildrenCache.StartMode.POST_INITIALIZED_EVENT);
- cache.getListenable().addListener((client1, イベント) -> {
- スイッチ (event.getType()) {
- CHILD_ADDEDの場合:
- システム.out.println ( "CHILD_ADDED:" + event.getData().getPath());
- 壊す
- CHILD_REMOVEDの場合:
- システム.out.println ( "CHILD_REMOVED:" + event.getData().getPath());
- 壊す
- CHILD_UPDATEDの場合:
- システム.out.println ( "CHILD_UPDATED:" + event.getData().getPath());
- 壊す
- CONNECTION_LOSTの場合:
- システム.out.println ( "CONNECTION_LOST:" + event.getData().getPath());
- 壊す
- CONNECTION_RECONNECTEDの場合:
- システム.out.println ( "CONNECTION_RECONNECTED:" + event.getData().getPath());
- 壊す
- CONNECTION_SUSPENDEDの場合:
- システム.out.println ( "CONNECTION_SUSPENDED:" + event.getData().getPath());
- 壊す
- ケース初期化済み:
- システム.out.println ( "初期化されました:" + event.getData().getPath());
- 壊す
- デフォルト:
- 壊す
- }
- });
-
- // client.create ().withMode(CreateMode.PERSISTENT).forPath(path);
- スレッド.スリープ(1000);
-
- client.create ().withMode(CreateMode.PERSISTENT).forPath(パス + "/c1" );
- スレッド.スリープ(1000);
-
- client.delete ().forPath(パス + "/c1" );
- スレッド.スリープ(1000);
-
- client.delete ().forPath(path); // ノード自体の変更を監視しても通知はトリガーされません。
- スレッド.スリープ(1000);
-
- クライアントを閉じます();
- }
3) ツリーキャッシュ パス キャッシュとノード キャッシュを組み合わせたもので、パスの下の作成、更新、削除イベントを監視し、パスの下のすべての子ノードのデータをキャッシュします。 - 公共 static void treeCache() は例外をスローします {
- 最終的な文字列パス = "/treeChildrenCache" ;
- 最終的な CuratorFramework クライアント = getClient();
- クライアントを起動します。
-
- 最終的な TreeCache キャッシュ = 新しい TreeCache(クライアント、パス);
- キャッシュを開始します。
-
- cache.getListenable().addListener((client1, イベント) -> {
- スイッチ (event.getType()){
- NODE_ADDEDの場合:
- システム.out.println ( "NODE_ADDED:" + event.getData().getPath());
- 壊す
- NODE_REMOVEDの場合:
- システム.out.println ( "NODE_REMOVED:" + event.getData().getPath());
- 壊す
- NODE_UPDATEDの場合:
- システム.out.println ( "NODE_UPDATED:" + event.getData().getPath());
- 壊す
- CONNECTION_LOSTの場合:
- システム.out.println ( "CONNECTION_LOST:" + event.getData().getPath());
- 壊す
- CONNECTION_RECONNECTEDの場合:
- システム.out.println ( "CONNECTION_RECONNECTED:" + event.getData().getPath());
- 壊す
- CONNECTION_SUSPENDEDの場合:
- システム.out.println ( "CONNECTION_SUSPENDED:" + event.getData().getPath());
- 壊す
- ケース初期化済み:
- システム.out.println ( "初期化されました:" + event.getData().getPath());
- 壊す
- デフォルト:
- 壊す
- }
- });
-
- client.create ().withMode(CreateMode.PERSISTENT).forPath(path);
- スレッド.スリープ(1000);
-
- client.create ().withMode(CreateMode.PERSISTENT).forPath(パス + "/c1" );
- スレッド.スリープ(1000);
-
- setData(クライアント、パス、 「テスト」 .getBytes());
- スレッド.スリープ(1000);
-
- client.delete ().forPath(パス + "/c1" );
- スレッド.スリープ(1000);
-
- client.delete ().forPath(パス);
- スレッド.スリープ(1000);
-
- クライアントを閉じます();
- }
選挙 キュレーターは、リーダー ラッチとリーダー選出の 2 つの方法を提供します。 1) リーダーラッチ リーダーは候補者の中からランダムに選出されます。一度選出されると、`close()` を呼び出してリーダーを解放しない限り、他の候補者がリーダーになることはできません。 - パブリッククラス LeaderLatchTest {
-
- プライベート静的最終文字列 PATH = "/demo/leader" ;
-
- 公共 静的void main(String[] args) {
- リスト<LeaderLatch> latchList = 新しいArrayList<>();
- リスト<CuratorFramework> クライアント = 新しい ArrayList<>();
- 試す {
- ( int i = 0; i < 10; i++)の場合{
- CuratorFramework クライアント = getClient();
- クライアントを起動します。
- clients.add (クライアント);
-
- 最終的なリーダーラッチ leaderLatch = 新しいリーダーラッチ(クライアント、PATH、 "クライアント#" + i);
- リーダーラッチ.addListener(新しいリーダーラッチリスナー() {
- @オーバーライド
- パブリックvoid isLeader() {
- System.out.println (leaderLatch.getId() + ":私はリーダーです。仕事をしています!" );
- }
-
- @オーバーライド
- パブリックvoid notLeader() {
- System.out.println (leaderLatch.getId() + ":私はリーダーではありません。何もしません!" );
- }
- });
- ラッチリストにリーダーラッチを追加します。
- リーダーラッチの開始();
- }
- スレッド.スリープ(1000 * 60);
- } キャッチ (例外 e) {
- e.printStackTrace();
- ついに {
- CuratorFrameworkクライアントの場合:クライアント{
- CloseableUtils.closeQuietly(クライアント);
- }
-
- (リーダーラッチ リーダーラッチ: ラッチリスト)の場合{
- CloseableUtils.closeQuietly(リーダーラッチ);
- }
- }
- }
-
- 公共 静的キュレーターフレームワーク getClient() {
- CuratorFrameworkFactory.builder()を返す
- .connectString( "127.0.0.1:2181" )
- .retryPolicy(新しいExponentialBackoffRetry(1000, 3))
- .connectionTimeoutMs(15 * 1000) // 接続タイムアウト、デフォルトは15秒
- .sessionTimeoutMs(60 * 1000) // セッションタイムアウト、デフォルトは60秒
- .namespace( "arch" ) // 名前空間を設定する
- 。建てる();
- }
-
- }
2) リーダー選挙 LeaderSelectorListener はリーダーシップの制御を可能にし、適切なタイミングでリーダーシップを解放することで、各ノードにリーダーシップを獲得する機会を与えます。一方、LeaderLatch はリーダーシップを無期限に保持し、close メソッドが呼び出されない限り、リーダーシップを放棄しません。 - パブリッククラス LeaderSelectorTest {
- プライベート静的最終文字列 PATH = "/demo/leader" ;
-
- 公共 静的void main(String[] args) {
- List<LeaderSelector> セレクター = 新しい ArrayList<>();
- リスト<CuratorFramework> クライアント = 新しい ArrayList<>();
- 試す {
- ( int i = 0; i < 10; i++)の場合{
- CuratorFramework クライアント = getClient();
- クライアントを起動します。
- clients.add (クライアント);
-
- 最終的な文字列名= "client#" + i;
- LeaderSelector leaderSelector = 新しいLeaderSelector(client, PATH, 新しいLeaderSelectorListenerAdapter() {
- @オーバーライド
- public void takeLeadership(CuratorFramework client) は例外をスローします {
- システム.out.println ( name + ":私はリーダーです。" );
- スレッド.sleep(2000);
- }
- });
-
- リーダーセレクターの自動再キュー();
- リーダーセレクターの開始();
- セレクターを追加します(リーダーセレクター)。
- }
- Thread.sleep(整数.MAX_VALUE);
- } キャッチ (例外 e) {
- e.printStackTrace();
- ついに {
- CuratorFrameworkクライアントの場合:クライアント{
- CloseableUtils.closeQuietly(クライアント);
- }
-
- for (LeaderSelector セレクター: セレクター) {
- CloseableUtils.closeQuietly(セレクター);
- }
-
- }
- }
-
- 公共 静的キュレーターフレームワーク getClient() {
- CuratorFrameworkFactory.builder()を返す
- .connectString( "127.0.0.1:2181" )
- .retryPolicy(新しいExponentialBackoffRetry(1000, 3))
- .connectionTimeoutMs(15 * 1000) // 接続タイムアウト、デフォルトは15秒
- .sessionTimeoutMs(60 * 1000) // セッションタイムアウト、デフォルトは60秒
- .namespace( "arch" ) // 名前空間を設定する
- 。建てる();
- }
-
- }
分散ロック 1) 共有再入ロック Shared は、ロックがグローバルに参照可能であり、どのクライアントでもロックを要求できることを意味します。Reentrant は JDK の ReentrantLock に似ており、単一のクライアントがロックを保持したまま、ブロックされることなく複数回ロックを取得できることを意味します。これは InterProcessMutex クラスによって実装されています。そのコンストラクタは次のとおりです。 - パブリックInterProcessMutex(CuratorFramework クライアント、文字列パス)
acquire を使用してロックを取得し、タイムアウト メカニズムを提供します。 - /**
- * ミューテックスを取得する - 利用可能になるまでブロックする。注意: 同じスレッドが acquire を呼び出すこともできる。
- * 再入可能。各acquire () 呼び出しはrelease ()呼び出しとバランスをとる必要があります。
- /
- パブリックvoid 取得();
-
- /**
- * ミューテックスを取得します - ミューテックスが利用可能になるか、指定された時間が経過するまでブロックします。注: 同じスレッドが
- * acquireを再入的に呼び出します。 trueはrelease()の呼び出しによってバランスをとる必要がある
- * パラメータ:
- *時間-時間 待つ
- * 単位 -時間単位
- *返品:
- *ミューテックスが取得された場合はtrue 、そうでない場合はfalse
- /
- public boolean acquire(long time , TimeUnit unit);
`release()` メソッドを使用してロックを解除します。`InterProcessMutex` インスタンスは再利用できます。ZooKeeper レシピ wiki では、ネゴシエート可能な取り消しメカニズムが定義されています。ミューテックスを取り消すには、次のメソッドを呼び出します。 - /**
- * ロックを取り消せるようにします。別のプロセスまたはスレッドがロックの解除を要求したときに、リスナーが呼び出されます。
- * パラメータ:
- * リスナー - リスナー
- /
- パブリックvoid makeRevocable(RevocationListener<T> リスナー)
2) 非再入可能共有ロック InterProcessSemaphoreMutex を使用する場合、呼び出し方法は同様ですが、このロックは再入不可能である点が異なります。つまり、同じスレッド内で再入することはできません。 3) 共有再入可能読み取り書き込みロック JDKのReentrantReadWriteLockと同様に、読み取り/書き込みロックは関連する2つのロックを管理します。1つは読み取り操作を処理し、もう1つは書き込み操作を処理します。書き込みロックが使用されていない間は、複数のプロセスが同時に読み取り操作を使用できますが、書き込みロックが使用されている間は読み取りは許可されません(ブロッキングされます)。このロックは再入可能です。書き込みロックを保持しているスレッドは読み取りロックに再入できますが、読み取りロックは書き込みロックに再入できません。これはまた、書き込みロックを読み取りロックにダウングレードできることも意味します。例えば、書き込みロックを要求 -> ロックを読み取り -> 書き込みロックを解放する、といった具合です。読み取りロックから書き込みロックへのアップグレードは不可能です。これは主に2つのクラスによって実装されます。 - プロセス間読み取り書き込みロック
- インタープロセスロック
4) 共有セマフォ カウンティングセマフォはJDKセマフォに似ています。JDKセマフォは許可セットを保持しますが、Cubatorではこれをリースと呼びます。すべてのインスタンスで同じ`numberOfLeases`値を使用する必要があることに注意してください。`acquire`を呼び出すとリースオブジェクトが返されます。クライアントは`finally`ブロックでこれらのリースオブジェクトを閉じる必要があります。閉じないとリースは失われます。ただし、クラッシュなどの何らかの理由でクライアントのセッションが失われた場合、そのクライアントが保持していたリースは自動的に閉じられ、他のクライアントが引き続き使用できるようになります。リースは、以下の方法でも返されます。 - パブリックvoid returnAll(コレクション<リース> リース)
- public void returnLease(リース リース)
複数のリースを一度に要求できることに注意してください。セマフォに十分なリースがない場合、要求スレッドはブロックされます。タイムアウトオーバーロードメソッドも提供されています。 - パブリックリース取得()
- パブリックコレクション<リース> 取得( int数量)
- 公的リース取得(長期、 TimeUnit単位)
- パブリックコレクション<リース> 取得( int数量, long時間, TimeUnit 単位)
主なカテゴリは次のとおりです。 - インタープロセスセマフォV2
- リース
- 共有カウントリーダー
5) マルチ共有ロック マルチ共有ロックはロックのコンテナです。`acquire` が呼び出されると、すべてのロックが取得されます。取得に失敗した場合は、すべてのロックが解放されます。同様に、`release` が呼び出されると、すべてのロックが解放されます(失敗は無視されます)。基本的に、これはロックのグループを表します。このロックに対するリクエストまたは解放操作は、その中のすべてのロックに渡されます。主に2つのクラスが関係します。 - インタープロセスマルチロック
- インタープロセスロック
そのコンストラクターには、ロックのセットまたは ZooKeeper パスのセットのいずれかが必要です。 - パブリックInterProcessMultiLock(List<InterProcessLock> ロック)
- パブリックInterProcessMultiLock(CuratorFramework クライアント、List<String> パス)
フェンス DistributedBarrierコンストラクタでは、barrierPathパラメータを使用してフェンスを識別します。同じbarrierPathパラメータ(同じパス)を持つフェンスは、同一のフェンスとみなされます。通常、フェンスは以下のように使用されます。 1. 主導クライアントがフェンスを設置します。 2. 他のクライアントは、バリアが削除されるまで待機するために waitOnBarrier() を呼び出し、プログラムの処理スレッドをブロックします。 3. 先頭のクライアントがバリアを取り除くと、他のクライアントのハンドラーは同時に実行を続けます。 DistributedBarrier クラスの主なメソッドは次のとおりです。 setBarrier() - バリアを設定する waitOnBarrier() - バリアが削除されるまで待機します removeBarrier() - バリアを削除します 2) 二重の障壁 二重バリアは、クライアントが計算の開始時と終了時に同期することを可能にします。プロセスは、十分な数のプロセスが二重バリアに加わると計算を開始し、計算が完了するとバリアを離れます。二重バリアクラスは「DistributedDoubleBarrier」です。このクラスは二重バリア機能を実装します。そのコンストラクタは次のとおりです。 - // クライアント - クライアント
- // barrierPath -使用するパス
- // memberQty -バリア内のメンバー数
- パブリック分散ダブルバリア(CuratorFrameworkクライアント、文字列バリアパス、 intメンバー数量)
`memberQty` はメンバー数です。`enter` メソッドが呼び出されると、すべてのメンバーが `enter` を呼び出すまでメンバーはブロックされます。`leave` メソッドが呼び出されると、すべてのメンバーが `leave` を呼び出すまで呼び出しスレッドもブロックされます。 注: パラメータ「memberQty」の値は閾値であり、制限ではありません。待機中のフェンスの数がこの値以上になると、フェンスが開きます。 DistributedBarrierと同様に、二重フェンスのbarrierPathパラメータも、それらが同じフェンスであるかどうかを判断するために使用されます。二重フェンスの使用方法は次のとおりです。 1. 複数のクライアントから同じパスに 2 つのバリア (DistributedDoubleBarrier) を作成し、enter() メソッドを呼び出して、バリアに入る前にバリアの数が memberQty に達するまで待機します。 2. バリアの数が memberQty に達すると、複数のクライアントが同時にブロックを停止し、leave() メソッドが実行されるまで実行を継続し、leave() メソッドで memberQty バリアがブロックされるのを待機します。 3. 複数の membersQty フェンスが leave() メソッドで同時にブロックされた場合、複数のクライアントの leave() メソッドはブロックを停止し、実行を継続します。 DistributedDoubleBarrier クラスの主なメソッドは次のとおりです: enter()、enter(long maxWait、TimeUnit unit) - バリアへの同時エントリを待機します。 `leave()` と `leave(long maxWait, TimeUnit unit)` - フェンスが同時に開くのを待ちます。 例外処理: DistributedDoubleBarrier は接続状態を監視し、接続が切断されると enter() メソッドと leave メソッドが例外をスローします。 カウンタ ZooKeeper を用いてカウンターを実装し、クラスター共有カウンターを作成できます。同じパスを使用している限り、最新のカウンター値を取得できます。これは ZooKeeper の一貫性によって保証されます。カウンターには 2 つのカウンターがあり、1 つは整数型、もう 1 つは長整数型です。 1) 共有カウント このクラスはカウントに int 型を使用します。主に3つのクラスが関係します。 - * 共有数
- * 共有カウントリーダー
- * 共有カウントリスナー
SharedCountはカウンタを表します。これにSharedCountListenerを追加できます。カウンタの値が変更されると、このListenerは変更イベントをリッスンし、SharedCountReaderはリテラル値とバージョン情報を含むversionedValue値を含む最新の値を読み込みます。 2) 分散アトミックロング SharedCountよりも広いカウント範囲を持つことに加え、まず楽観的ロックを用いてカウンタの設定を試みます。これが失敗した場合(例えば、カウンタが既に別のクライアントによって更新されている場合)、InterProcessMutexを用いてカウンタ値を更新します。このカウンタは、以下の一連の操作から構成されます。 - get(): 現在の値を取得する
- increment(): 1ずつ増加します
- decrement(): 1ずつ減算する
- add(): 特定の値を追加します。
- 減算(): 特定の値を減算する
- trySet(): カウンター値の設定を試みます
- forceSet(): カウンター値を強制的に設定。
結果によって返される `succeeded()` 関数を確認する必要があります。この関数は、操作が成功したかどうかを示します。操作が成功した場合、`preValue()` は操作前の値を表し、`postValue()` は操作後の値を表します。 終わり Curator は多くの複雑な ZooKeeper 操作を抽象化・簡素化するため、ZooKeeper ユーザーにとって大きなメリットとなります。しかし、真の喜びは Curator を使う必要がなくなることです。 他の人がZooKeeperをどのような位置付けにしているかは分かりませんが、Paxosプロトコルに出会ってからというもの、ZooKeeperに強い関心を抱くことが難しくなりました。私の技術選択リストでは、たいてい最下位に位置していて、ソースコード内の難解なロジックを理解することさえできません。 しかし、エンジニアリングプロジェクトは私たちの好みによって評価されることは一度もありません。常にそうでした。 著者について:「Little Sister's Flavor」(xjjdog)は、プログラマーが陥りやすい落とし穴を回避するためのWeChat公式アカウントです。インフラとLinuxに特化しています。10年間のアーキテクチャ経験を持ち、毎日数十億件ものリクエストを処理しながら、高度な並列処理の世界を探求し、独自の視点を提供しています。 |