論文の概要: OrchANN: A Unified I/O Orchestration Framework for Skewed Out-of-Core Vector Search
- arxiv url: http://arxiv.org/abs/2512.22838v1
- Date: Sun, 28 Dec 2025 08:42:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.247782
- Title: OrchANN: A Unified I/O Orchestration Framework for Skewed Out-of-Core Vector Search
- Title(参考訳): OrchANN: コア外ベクトル探索のための統一I/Oオーケストレーションフレームワーク
- Authors: Chengying Huan, Lizheng Chen, Zhengyi Yang, Shaonan Ma, Rong Gu, Renjie Yao, Zhibin Wang, Mingxing Zhang, Fang Xi, Jie Tao, Gang Zhang, Guihai Chen, Chen Tian,
- Abstract要約: 数十億ドル規模の近似近接探索(ANNS)は、基本的には中核的な問題である。
我々は、統一されたI/OガバナンスにI/Oオーケストレーションモデルを使用する、アウトオブコアANNSエンジンであるOrchANNを紹介する。
- 参考スコア(独自算出の注目度): 38.2797436367431
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Approximate nearest neighbor search (ANNS) at billion scale is fundamentally an out-of-core problem: vectors and indexes live on SSD, so performance is dominated by I/O rather than compute. Under skewed semantic embeddings, existing out-of-core systems break down: a uniform local index mismatches cluster scales, static routing misguides queries and inflates the number of probed partitions, and pruning is incomplete at the cluster level and lossy at the vector level, triggering "fetch-to-discard" reranking on raw vectors. We present OrchANN, an out-of-core ANNS engine that uses an I/O orchestration model for unified I/O governance along the route-access-verify pipeline. OrchANN selects a heterogeneous local index per cluster via offline auto-profiling, maintains a query-aware in-memory navigation graph that adapts to skewed workloads, and applies multi-level pruning with geometric bounds to filter both clusters and vectors before issuing SSD reads. Across five standard datasets under strict out-of-core constraints, OrchANN outperforms four baselines including DiskANN, Starling, SPANN, and PipeANN in both QPS and latency while reducing SSD accesses. Furthermore, OrchANN delivers up to 17.2x higher QPS and 25.0x lower latency than competing systems without sacrificing accuracy.
- Abstract(参考訳): 数十億ドル規模の近似近接探索(ANNS)は、基本的には中核的な問題である:ベクトルとインデックスはSSD上に存在するので、性能は計算よりもI/Oに支配される。
均一なローカルインデックスがクラスタスケールをミスマッチし、静的なルーティングがクエリをインフレーションし、探索されたパーティションの数を膨らませる。
我々は、ルートアクセス検証パイプラインに沿って統合されたI/OガバナンスにI/Oオーケストレーションモデルを使用する、アウトオブコアANNSエンジンであるOrchANNを紹介する。
OrchANNは、オフラインの自動プロファイリングを通じてクラスタ毎の不均一なローカルインデックスを選択し、歪んだワークロードに適応するクエリ対応のインメモリナビゲーショングラフを維持し、幾何境界によるマルチレベルプルーニングを適用して、SSD読み込みの発行前にクラスタとベクタの両方をフィルタリングする。
厳格な外部制約の下での5つの標準データセットの中で、OrchANNは、SSDアクセスを削減しつつ、QPSとレイテンシの両方で、DiskANN、Starling、SPANN、PipeANNの4つのベースラインを上回っている。
さらに、OrchANNは、精度を犠牲にすることなく、競合システムよりも最大17.2倍高いQPSと25.0倍のレイテンシを提供する。
関連論文リスト
- DiEC: Diffusion Embedded Clustering [0.76629754443761]
ディープクラスタリングは、明確なクラスタ構造を公開する表現に依存します。
従来のほとんどのメソッドは、オートエンコーダや自己教師付きエンコーダによる単一の埋め込みを学び、クラスタリングの第一の表現として扱う。
本研究では,事前学習した拡散U-Netの中間活性化を直接利用して,この軌道を利用する教師なしクラスタリングフレームワークであるEmbed Diffusion Clustering (DiEC)を提案する。
論文 参考訳(メタデータ) (2025-12-24T03:10:00Z) - B+ANN: A Fast Billion-Scale Disk-based Nearest-Neighbor Index [3.4720326275852]
本稿では,HNSWアルゴリズムの問題点に対処するため,新しいディスクベースANNインデックスであるB+ANNを提案する。
入力データをセマンティックに類似したアイテムを含むブロックに分割し、B+ツリーの変種を構築し、インメモリとディスクの両方にブロックを格納する。
HNSWよりも品質(リコール値)と実行性能(秒/QPSあたりのクエリ)の両方を改善する。
論文 参考訳(メタデータ) (2025-11-19T15:50:28Z) - Scalable Disk-Based Approximate Nearest Neighbor Search with Page-Aligned Graph [3.994346326254537]
本稿では,ディスクベースの近接探索(ANNS)フレームワークであるPageANNを提案する。
その結果、PageANNは最先端(SOTA)ディスクベースのANNS法を著しく上回り、1.85x-10.83倍のスループット、51.7%-91.9%のレイテンシを異なるデータセットとメモリ予算で達成した。
論文 参考訳(メタデータ) (2025-09-29T20:44:13Z) - DISTRIBUTEDANN: Efficient Scaling of a Single DISKANN Graph Across Thousands of Computers [9.854925314375024]
分散ベクトル検索サービスであるDistriBUTEDANNは,1000台以上のマシンにまたがる1つの500億ベクトルグラフインデックスを検索可能にする。
これは、スケールアウトベクターサーチシステムにおいて、ベクトルクエリをパーティションのサブセットにルーティングする既存のパーティションおよびルーティング戦略よりも6倍効率がよい。
論文 参考訳(メタデータ) (2025-09-07T13:13:02Z) - HAKES: Scalable Vector Database for Embedding Search Service [16.034584281180006]
我々は,並列な読み書きワークロード下で高いスループットと高いリコールを実現するベクトルデータベースを構築した。
我々のインデックスは、高リコール領域と同時読み書きワークロード下でインデックスベースラインより優れています。
nameysはスケーラブルで、ベースラインよりも最大16タイムで高いスループットを実現します。
論文 参考訳(メタデータ) (2025-05-18T19:26:29Z) - Timely Asynchronous Hierarchical Federated Learning: Age of Convergence [59.96266198512243]
クライアント-エッジ-クラウドフレームワークを用いた非同期階層型フェデレーション学習環境について検討する。
クライアントはトレーニングされたパラメータをエッジサーバと交換し、ローカルに集約されたモデルを更新する。
各クライアントの目標は、クライアントのタイムラインを維持しながら、グローバルモデルに収束することだ。
論文 参考訳(メタデータ) (2023-06-21T17:39:16Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。