論文の概要: HoneyBee: Efficient Role-based Access Control for Vector Databases via Dynamic Partitioning
- arxiv url: http://arxiv.org/abs/2505.01538v1
- Date: Fri, 02 May 2025 18:59:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.167475
- Title: HoneyBee: Efficient Role-based Access Control for Vector Databases via Dynamic Partitioning
- Title(参考訳): HoneyBee: 動的パーティショニングによるベクトルデータベースの効率的なロールベースアクセス制御
- Authors: Hongbin Zhong, Matthew Lentz, Nina Narodytska, Adriana Szekeres, Kexin Rong,
- Abstract要約: HoneyBeeは動的パーティショニングフレームワークで、現在のアプローチとロールベースのアクセス制御(RBAC)ポリシーのギャップを埋めます。
HoneyBeeはオーバーラップするパーティションを生成し、ベクタをさまざまなパーティションに戦略的に複製することで、クエリレイテンシを低減する。
HoneyBeeはパーティショニング戦略を,ストレージの動的バランス,クエリ効率,リコールといった制約付き最適化問題として定式化している。
- 参考スコア(独自算出の注目度): 7.712955046857144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As vector databases gain traction in enterprise applications, robust access control has become critical to safeguard sensitive data. Access control in these systems is often implemented through hybrid vector queries, which combine nearest neighbor search on vector data with relational predicates based on user permissions. However, existing approaches face significant trade-offs: creating dedicated indexes for each user minimizes query latency but introduces excessive storage redundancy, while building a single index and applying access control after vector search reduces storage overhead but suffers from poor recall and increased query latency. This paper introduces HoneyBee, a dynamic partitioning framework that bridges the gap between these approaches by leveraging the structure of Role-Based Access Control (RBAC) policies. RBAC, widely adopted in enterprise settings, groups users into roles and assigns permissions to those roles, creating a natural "thin waist" in the permission structure that is ideal for partitioning decisions. Specifically, HoneyBee produces overlapping partitions where vectors can be strategically replicated across different partitions to reduce query latency while controlling storage overhead. By introducing analytical models for the performance and recall of the vector search, HoneyBee formulates the partitioning strategy as a constrained optimization problem to dynamically balance storage, query efficiency, and recall. Evaluations on RBAC workloads demonstrate that HoneyBee reduces storage redundancy compared to role partitioning and achieves up to 6x faster query speeds than row-level security (RLS) with only 1.4x storage increase, offering a practical middle ground for secure and efficient vector search.
- Abstract(参考訳): エンタープライズアプリケーションでベクトルデータベースが普及するにつれて、機密データを保護するためにロバストなアクセス制御が重要になっている。
これらのシステムのアクセス制御は、近接するベクトルデータとユーザ権限に基づく関係述語を組み合わせた、ハイブリッドなベクトルクエリによって実装されることが多い。
クエリレイテンシを最小化するが、過剰なストレージ冗長性を導入する一方で、単一のインデックスを構築し、ベクトル検索後にアクセス制御を適用することで、ストレージオーバーヘッドは低減するが、リコールの低さとクエリレイテンシの増加に悩まされる。
本稿では,Role-Based Access Control (RBAC) ポリシの構造を活用することで,これらのアプローチ間のギャップを埋める動的パーティショニングフレームワークであるHoneyBeeを紹介する。
エンタープライズ環境で広く採用されているRBACは、ユーザをロールにグループ化し、それらのロールにパーミッションを割り当てる。
具体的には、HoneyBeeは重複するパーティションを生成し、ベクタをさまざまなパーティションに戦略的に複製することで、ストレージオーバーヘッドを制御しながらクエリのレイテンシを低減する。
ベクトル探索の性能とリコールに関する解析モデルを導入することで、HoneyBeeは分割戦略を制約付き最適化問題として定式化し、ストレージ、クエリ効率、リコールを動的にバランスさせる。
RBACワークロードの評価によると、HoneyBeeはロールパーティショニングよりもストレージの冗長性を低減し、行レベルのセキュリティ(RLS)よりも最大6倍高速なクエリ速度を実現している。
関連論文リスト
- Shared Disk KV Cache Management for Efficient Multi-Instance Inference in RAG-Powered LLMs [5.02504911036896]
最近の大規模言語モデル(LLM)は、入力コンテキストの長さとモデルサイズが大きくなるにつれて、推論遅延が増加する。
本稿では,ディスクベースのキー値(KV)キャッシュを利用して,プリフィル時の計算負担を軽減することによるTTFT削減手法を提案する。
また、マルチインスタンスLLM RAGサービス環境のためのディスクベースの共有KVキャッシュ管理システムであるShared RAG-DCacheを導入する。
論文 参考訳(メタデータ) (2025-04-16T04:59:18Z) - An Adaptive Vector Index Partitioning Scheme for Low-Latency RAG Pipeline [0.6445605125467574]
Retrieval Augmented Generation (RAG) システムは、大規模言語モデル(LLM)とベクトルデータベースを統合することで、応答品質を向上させる。
ベクターサーチとLLMサービスのための既存の最適化は、主に独立して開発されている。
本稿では,RAGシステム用に設計されたベクトルインデックス分割機構であるVectorLiteRAGを紹介する。
論文 参考訳(メタデータ) (2025-04-11T19:18:41Z) - How Robust Are Router-LLMs? Analysis of the Fragility of LLM Routing Capabilities [62.474732677086855]
大規模言語モデル(LLM)ルーティングは,計算コストと性能のバランスをとる上で重要な戦略である。
DSCベンチマークを提案する: Diverse, Simple, and Categorizedは、幅広いクエリタイプでルータのパフォーマンスを分類する評価フレームワークである。
論文 参考訳(メタデータ) (2025-03-20T19:52:30Z) - Leveraging Approximate Caching for Faster Retrieval-Augmented Generation [1.3450852784287828]
Retrieval-augmented Generation (RAG)は、外部知識を統合することにより、大規模言語モデル(LLM)回答の信頼性を高める。
RAGは、大規模なベクトルデータベースから関連ドキュメントを探すのに計算コストがかかるため、エンドツーエンドの推論時間を増加させる。
本稿では,ユーザクエリの類似性を活用してRAGワークフローを最適化する,近似キー値キャッシュであるProximityを紹介する。
論文 参考訳(メタデータ) (2025-03-07T15:54:04Z) - Fast or Better? Balancing Accuracy and Cost in Retrieval-Augmented Generation with Flexible User Control [52.405085773954596]
Retrieval-Augmented Generation (RAG) は、大規模言語モデル幻覚を緩和するための強力なアプローチとして登場した。
既存のRAGフレームワークは、しばしば無差別に検索を適用し、非効率な再検索につながる。
本稿では,精度・コストのトレードオフを動的に調整できる新しいユーザ制御可能なRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:56:20Z) - RetrievalAttention: Accelerating Long-Context LLM Inference via Vector Retrieval [24.472784635757016]
RetrievalAttentionは、注意計算を高速化し、GPUメモリ消費を減らすためのトレーニング不要のアプローチである。
RetrievalAttentionは1-3%のデータのみを必要としながら、ほぼ全注意精度を達成できることを示す。
論文 参考訳(メタデータ) (2024-09-16T17:59:52Z) - Sparsity-Aware Intelligent Massive Random Access Control in Open RAN: A
Reinforcement Learning Based Approach [61.74489383629319]
新たなOpen Radio Access Network(O-RAN)におけるデバイスの大量ランダムアクセスは、アクセス制御と管理に大きな課題をもたらします。
閉ループアクセス制御の強化学習(RL)支援方式を提案する。
深部RL支援SAUDは、連続的かつ高次元の状態と行動空間を持つ複雑な環境を解決するために提案されている。
論文 参考訳(メタデータ) (2023-03-05T12:25:49Z) - Injecting Domain Adaptation with Learning-to-hash for Effective and
Efficient Zero-shot Dense Retrieval [49.98615945702959]
我々は,TAS-B高密度検索器の下流ゼロショット検索精度を向上させるためのLTHおよびベクトル圧縮技術を評価する。
以上の結果から, 従来の研究とは異なり, LTH法はゼロショットTAS-B高密度レトリバーを平均14%のnDCG@10で過小評価できることがわかった。
論文 参考訳(メタデータ) (2022-05-23T17:53:44Z) - IRLI: Iterative Re-partitioning for Learning to Index [104.72641345738425]
分散環境でのロードバランスとスケーラビリティを維持しながら、高い精度を得る方法とのトレードオフが必要だ。
クエリ項目関連データから直接バケットを学習することで、アイテムを反復的に分割するIRLIと呼ばれる新しいアプローチを提案する。
我々は,irliが極めて自然な仮定の下で高い確率で正しい項目を検索し,優れた負荷分散を実現することを数学的に示す。
論文 参考訳(メタデータ) (2021-03-17T23:13:25Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。