論文の概要: Individualized non-uniform quantization for vector search
- arxiv url: http://arxiv.org/abs/2509.18471v1
- Date: Mon, 22 Sep 2025 23:20:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.611898
- Title: Individualized non-uniform quantization for vector search
- Title(参考訳): ベクトル探索のための個別化非一様量子化
- Authors: Mariano Tepper, Ted Willke,
- Abstract要約: NVQ (non-uniform vector Quantization) は、計算的かつ空間的に効率的な新しいベクトル圧縮手法である。
NVQは、最小の計算コストで、最先端技術と比較して精度が向上している。
- 参考スコア(独自算出の注目度): 1.4896509623302838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Embedding vectors are widely used for representing unstructured data and searching through it for semantically similar items. However, the large size of these vectors, due to their high-dimensionality, creates problems for modern vector search techniques: retrieving large vectors from memory/storage is expensive and their footprint is costly. In this work, we present NVQ (non-uniform vector quantization), a new vector compression technique that is computationally and spatially efficient in the high-fidelity regime. The core in NVQ is to use novel parsimonious and computationally efficient nonlinearities for building non-uniform vector quantizers. Critically, these quantizers are \emph{individually} learned for each indexed vector. Our experimental results show that NVQ exhibits improved accuracy compared to the state of the art with a minimal computational cost.
- Abstract(参考訳): 埋め込みベクトルは非構造化データの表現や意味論的に類似した項目の検索に広く用いられている。
しかし、これらのベクトルの大きさは、その高次元性のため、メモリ/ストレージから大きなベクトルを回収することは高価であり、そのフットプリントは高価である、現代のベクトル探索技術に問題をもたらす。
本研究では,NVQ(Non-uniform vector Quantization, 非一様ベクトル量子化)を提案する。
NVQの中核は、非一様ベクトル量子化器を構築するために、新しい同相かつ計算的に効率的な非線形性を使用することである。
臨界的に、これらの量子化器は、各インデックス化されたベクトルについて学習された 'emph{individually} である。
実験の結果,NVQは計算コストが最小となる最先端技術と比較して精度が向上していることがわかった。
関連論文リスト
- Dimension reduction with structure-aware quantum circuits for hybrid machine learning [0.0]
ベクトルのシュミット分解は特異値分解(SVD)をベクトル形式で記述するものとして理解することができる。
我々は、$k$の値で設計された量子回路が、データセット全体の縮小形式表現を近似できることを示した。
論文 参考訳(メタデータ) (2025-07-31T17:18:43Z) - Improving the Generation of VAEs with High Dimensional Latent Spaces by the use of Hyperspherical Coordinates [59.4526726541389]
変分オートエンコーダ(VAE)は、これらのベクトルをデータに復号する前に、データを低次元の潜在ベクトルに符号化する。
本稿では,計算オーバーヘッドが制限された潜在空間のパラメータ化を提案する。
論文 参考訳(メタデータ) (2025-07-21T05:10:43Z) - Linearithmic Clean-up for Vector-Symbolic Key-Value Memory with Kroneker Rotation Products [4.502446902578007]
現在のVector-Symbolic Architecturesにおける計算ボトルネックは、クリーンアップのステップである。
効率的なクリーンアップをサポートする新しいコードブック表現を提案する。
結果として生じるクリーンアップ時間の複雑さはリニアリチミック、すなわち$mathcalO(N,textlog,N)$である。
論文 参考訳(メタデータ) (2025-06-18T18:23:28Z) - GleanVec: Accelerating vector search with minimalist nonlinear dimensionality reduction [1.1599570446840546]
クロスモーダル検索(例えば、画像を見つけるためにテキストクエリを使用する)は急速に勢いを増している。
クエリはデータベースベクトルとは異なる統計分布を持つことが多いため、高い精度を達成することは困難である。
本稿では,高次元ベクトル探索を高速化するために,次元削減のための線形非線形手法を提案する。
論文 参考訳(メタデータ) (2024-10-14T21:14:27Z) - On dimensionality of feature vectors in MPNNs [49.32130498861987]
我々は、メッセージパッシンググラフニューラルネットワーク(MPNN)がWeisfeiler--Leman(WL)同型テストに対する識別力に等しいというモリスら(AAAI'19)の古典的な結果を再考する。
論文 参考訳(メタデータ) (2024-02-06T12:56:55Z) - LeanVec: Searching vectors faster by making them fit [1.0863382547662974]
本稿では,高次元ベクトル上での類似性探索を高速化するために,線形次元減少とベクトル量子化を組み合わせたフレームワークLeanVecを提案する。
LeanVecは、検索のスループットを最大3.7倍改善し、インデックスビルド時間を最大4.9倍高速化する、最先端の結果を生成する。
論文 参考訳(メタデータ) (2023-12-26T21:14:59Z) - CITADEL: Conditional Token Interaction via Dynamic Lexical Routing for
Efficient and Effective Multi-Vector Retrieval [72.90850213615427]
マルチベクター検索法はスパース(例えばBM25)と高密度(例えばDPR)レトリバーの利点を組み合わせたものである。
これらの手法は桁違いに遅く、単ベクトルの手法に比べてインデックスを格納するのにはるかに多くのスペースを必要とする。
動的語彙ルーティング(CITADEL)による条件付きトークンの相互作用を,効率的かつ効率的なマルチベクタ検索のために提案する。
論文 参考訳(メタデータ) (2022-11-18T18:27:35Z) - Batch-efficient EigenDecomposition for Small and Medium Matrices [65.67315418971688]
EigenDecomposition (ED)は多くのコンピュータビジョンアルゴリズムとアプリケーションの中心にある。
本稿では,コンピュータビジョンの応用シナリオに特化したQRベースのED手法を提案する。
論文 参考訳(メタデータ) (2022-07-09T09:14:12Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。