論文の概要: FusedANN: Convexified Hybrid ANN via Attribute-Vector Fusion
- arxiv url: http://arxiv.org/abs/2509.19767v2
- Date: Thu, 25 Sep 2025 19:07:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 12:12:20.327418
- Title: FusedANN: Convexified Hybrid ANN via Attribute-Vector Fusion
- Title(参考訳): FusedANN:Attribute-Vector FusionによるハイブリッドANNの融合
- Authors: Alireza Heidari, Wei Zhang, Ying Xiong,
- Abstract要約: 現在のソリューションでは、スケールしない脆弱なインデックスハックを頼りに、リコール、スピード、柔軟性をトレードオフしています。
本稿では,属性を埋め込み,属性を緩和するハイブリッドフレームワークFusedANNを紹介する。
FusedANNは、一致が不十分な場合に、セマンティックに最も近い属性を保存しながら、ハイクセマンティクスの下で正確なフィルタリングを行う。
これは、象徴的制約とベクトル類似性の間の原則付き、スケーラブルで、ブリッジを確立し、大規模、ハイブリッド、動的/MLワークロードのための新しい世代のフィルタ付き検索システムをアンロックする。
- 参考スコア(独自算出の注目度): 6.700590393518077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vector search powers transformers technology, but real-world use demands hybrid queries that combine vector similarity with attribute filters (e.g., "top document in category X, from 2023"). Current solutions trade off recall, speed, and flexibility, relying on fragile index hacks that don't scale. We introduce FusedANN (Fused Attribute-Vector Nearest Neighbor), a geometric framework that elevates filtering to ANN optimization constraints and introduces a convex fused space via a Lagrangian-like relaxation. Our method jointly embeds attributes and vectors through transformer-based convexification, turning hard filters into continuous, weighted penalties that preserve top-k semantics while enabling efficient approximate search. We prove that FusedANN reduces to exact filtering under high selectivity, gracefully relaxes to semantically nearest attributes when exact matches are insufficient, and preserves downstream ANN alpha-approximation guarantees. Empirically, FusedANN improves query throughput by eliminating brittle filtering stages, achieving superior recall-latency tradeoffs on standard hybrid benchmarks without specialized index hacks, delivering up to 3 times higher throughput and better recall than state-of-the-art hybrid and graph-based systems. Theoretically, we provide explicit error bounds and parameter selection rules that make FusedANN practical for production. This establishes a principled, scalable, and verifiable bridge between symbolic constraints and vector similarity, unlocking a new generation of filtered retrieval systems for large, hybrid, and dynamic NLP/ML workloads.
- Abstract(参考訳): ベクトル検索はトランスフォーマーの技術を駆使するが、現実のユースケースでは、ベクトル類似性と属性フィルタ(例:2023年のカテゴリXのトップドキュメント)を組み合わせたハイブリッドクエリが要求される。
現在のソリューションでは、スケールしない脆弱なインデックスハックを頼りに、リコール、スピード、柔軟性をトレードオフしています。
本稿では,FusedANN(Fused Attribute-Vector Nearest Neighbor)について紹介する。
提案手法では, コンベクシフィケーションにより属性とベクトルを共同で埋め込み, ハードフィルタを連続的に重み付けしたペナルティに変換し, トップkのセマンティクスを保存し, 効率的な近似探索を実現する。
FusedANNは、高い選択性の下で正確なフィルタリングを減らし、正確な一致が不十分な場合に意味的に最も近い属性に優雅に緩和し、下流のANNのアルファ近似を保証する。
経験的に、FusedANNは、脆いフィルタリングステージを排除し、特殊なインデックスハックなしで標準ハイブリッドベンチマークでのリコールレイテンシのトレードオフに優れ、最先端のハイブリッドシステムやグラフベースのシステムよりも最大3倍高いスループットとリコールを実現することにより、クエリスループットを改善している。
理論的には、FusedANNを実用化するための明示的なエラー境界とパラメータ選択ルールを提供する。
これにより、シンボル制約とベクトル類似性の間の原則的、スケーラブルで検証可能なブリッジを確立し、大規模、ハイブリッド、動的NLP/MLワークロードのための新しい世代のフィルタ検索システムをアンロックする。
関連論文リスト
- In-Loop Filtering Using Learned Look-Up Tables for Video Coding [34.73130210353939]
インループフィルタリング(ILF)は、ビデオ符号化における重要な技術であり、アーティファクトを低減し、視覚的品質を向上させる。
本稿では, LUT-ILF++ と呼ばれる汎用 LUT ベースの ILF フレームワークを提案する。
DNNベースのソリューションと比較して、提案したソリューションは、時間的複雑さとストレージコストをはるかに低減します。
論文 参考訳(メタデータ) (2025-09-11T14:34:01Z) - Representation Quantization for Collaborative Filtering Augmentation [49.14087936092634]
本稿では,新しい2段階協調推薦アルゴリズムDQRecを提案する。
相互作用配列と属性から共同で振舞い特性を抽出することで特徴と均一な結合を増強する。
これらのセマンティックIDパターンを機能拡張とリンク拡張を通じてレコメンデーションプロセスに統合することにより、システムは潜伏したユーザと明示的なアイテムの両方の機能を強化します。
論文 参考訳(メタデータ) (2025-08-15T04:00:50Z) - Benchmarking Filtered Approximate Nearest Neighbor Search Algorithms on Transformer-based Embedding Vectors [18.796661826646616]
Filtered Approximate Nearest Neighbor Search (FANNS) は、フィルタされた近似Nearest Neighbor Search (FANNS) と呼ばれる問題である。
本稿では, FANNS手法の総合的な調査と分類について紹介し, それらが文献でどのようにベンチマークされているか分析する。
本稿では、arXivリポジトリから270万以上の研究論文を要約したベクトルを埋め込んだ新しいデータセットについて紹介する。
論文 参考訳(メタデータ) (2025-07-29T16:39:54Z) - syftr: Pareto-Optimal Generative AI [40.80352098169579]
syftrはエージェントと非エージェントのRAG構成の広い領域で効率的な多目的探索を行うフレームワークである。
Syftrは、最も正確な流れの正確さを保ちながら、平均して9倍のコストで流れを見つける。
論文 参考訳(メタデータ) (2025-05-26T17:43:13Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Factorizers for Distributed Sparse Block Codes [45.29870215671697]
分散ブロック符号(SBC)を高速かつ高精度に分解する手法を提案する。
我々の反復分解器は、しきい値に基づく非線形活性化、条件付きランダムサンプリング、および $ell_infty$-based similarity metricを導入している。
CIFAR-100, ImageNet-1K, RAVENデータセット上での4つの深層CNNアーキテクチャの実現可能性を示す。
論文 参考訳(メタデータ) (2023-03-24T12:31:48Z) - Highly Parallel Autoregressive Entity Linking with Discriminative
Correction [51.947280241185]
自己回帰リンクを全ての潜在的な言及に対して並列化する,非常に効率的な手法を提案する。
我々のモデルは以前の生成法より70倍高速で精度が高い。
論文 参考訳(メタデータ) (2021-09-08T17:28:26Z) - Adaptive Filters and Aggregator Fusion for Efficient Graph Convolutions [11.769185588579488]
本稿では,アクセル実装に適した特性とともに,メモリ消費と遅延を低減した最先端性能を示す。
提案手法は,エッジ数に比例するメモリを必要とする競合手法とは対照的に,グラフ内の頂点数に比例するメモリを用いる。
GNNが表現力を大幅に高める技術であるアグリゲーター融合を提案し、標準のスパース行列乗算よりも19%の遅延がわずかに増加している。
論文 参考訳(メタデータ) (2021-04-03T20:54:36Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z) - DHP: Differentiable Meta Pruning via HyperNetworks [158.69345612783198]
本稿では,ネットワークの自動プルーニングのためのハイパーネットによる識別可能なプルーニング手法を提案する。
遅延ベクトルは、バックボーンネットワーク内の畳み込み層の出力チャネルを制御し、レイヤのプルーニングのハンドルとして機能する。
画像分類、単一画像超解像、復調のための様々なネットワークで実験が行われた。
論文 参考訳(メタデータ) (2020-03-30T17:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。