論文の概要: CRINN: Contrastive Reinforcement Learning for Approximate Nearest Neighbor Search
- arxiv url: http://arxiv.org/abs/2508.02091v2
- Date: Wed, 20 Aug 2025 01:47:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 14:45:44.857527
- Title: CRINN: Contrastive Reinforcement Learning for Approximate Nearest Neighbor Search
- Title(参考訳): CRINN: 近似近傍探索のためのコントラスト強化学習
- Authors: Xiaoya Li, Xiaofei Sun, Albert Wang, Chris Shum, Jiwei Li,
- Abstract要約: CRINNは,近似近傍探索(ANNS)アルゴリズムの新しいパラダイムである。
CRINNはANNS最適化を、実行速度が報奨信号となる強化学習問題として扱う。
実験により、CRINNは広範に使用されている6つのNNSベンチマークデータセットに対して有効であることが示された。
- 参考スコア(独自算出の注目度): 35.06696271451966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Approximate nearest-neighbor search (ANNS) algorithms have become increasingly critical for recent AI applications, particularly in retrieval-augmented generation (RAG) and agent-based LLM applications. In this paper, we present CRINN, a new paradigm for ANNS algorithms. CRINN treats ANNS optimization as a reinforcement learning problem where execution speed serves as the reward signal. This approach enables the automatic generation of progressively faster ANNS implementations while maintaining accuracy constraints. Our experimental evaluation demonstrates CRINN's effectiveness across six widely-used NNS benchmark datasets. When compared against state-of-the-art open-source ANNS algorithms, CRINN achieves best performance on three of them (GIST-960-Euclidean, MNIST-784-Euclidean, and GloVe-25-angular), and tied for first place on two of them (SIFT-128-Euclidean and GloVe-25-angular). The implications of CRINN's success reach well beyond ANNS optimization: It validates that LLMs augmented with reinforcement learning can function as an effective tool for automating sophisticated algorithmic optimizations that demand specialized knowledge and labor-intensive manual refinement. Code can be found at https://github.com/deepreinforce-ai/CRINN
- Abstract(参考訳): 近似近傍探索(ANNS)アルゴリズムは、最近のAIアプリケーション、特に検索強化世代(RAG)やエージェントベースのLLMアプリケーションにおいて、ますます重要になっている。
本稿では,ANNSアルゴリズムの新しいパラダイムであるCRINNを提案する。
CRINNはANNS最適化を、実行速度が報奨信号となる強化学習問題として扱う。
このアプローチは、精度の制約を維持しつつ、段階的に高速なANNS実装の自動生成を可能にする。
実験により、CRINNは広範に使用されている6つのNNSベンチマークデータセットに対して有効であることが示された。
最先端のオープンソースANNSアルゴリズムと比較すると、CRINNは3つのアルゴリズム(GIST-960-Euclidean、MNIST-784-Euclidean、GloVe-25-angular)で最高のパフォーマンスを達成し、2つのアルゴリズム(SIFT-128-Euclidean、GloVe-25-angular)で一位についた。
CRINNの成功はANNS最適化以上の意味を持つ: 強化学習で強化されたLLMが、専門知識と労働集約的な手作業の洗練を必要とする高度なアルゴリズム最適化を自動化する効果的なツールとして機能することを検証する。
コードはhttps://github.com/deepreinforce-ai/CRINNで見ることができる。
関連論文リスト
- Dynamic Location Search for Identifying Maximum Weighted Independent Sets in Complex Networks [0.47248250311484113]
本稿では,最大重み付き独立集合(MWIS)問題を解くための,新しい,効率的なアルゴリズムを提案する。
MWIS問題のNPハード性を考えると,提案アルゴリズムであるDynLSには3つの重要なイノベーションが組み込まれている。
我々の実験結果はDynLSの優れた性能を示し、1000秒以内の高品質なソリューションを一貫して提供した。
論文 参考訳(メタデータ) (2025-05-07T10:35:53Z) - A Framework to Enable Algorithmic Design Choice Exploration in DNNs [0.0]
深層学習ネットワーク(DNN)のための粒度アルゴリズム制御を容易に利用できるオープンソースフレームワークを提案する。
このフレームワークは、DNNが利用する独自のアルゴリズムの実装と選択を可能にする。
フレームワークは追加のパフォーマンスオーバーヘッドを発生させません。つまり、パフォーマンスはユーザが選択したアルゴリズムにのみ依存します。
論文 参考訳(メタデータ) (2024-10-10T18:41:56Z) - RAGLAB: A Modular and Research-Oriented Unified Framework for Retrieval-Augmented Generation [54.707460684650584]
大きな言語モデル(LLM)は対話、推論、知識保持における人間レベルの能力を示す。
現在の研究は、LLMに外部知識を組み込むことによって、このボトルネックに対処している。
RAGLABはモジュール的で研究指向のオープンソースライブラリで、6つの既存のアルゴリズムを再現し、RAGアルゴリズムを調査するための包括的なエコシステムを提供する。
論文 参考訳(メタデータ) (2024-08-21T07:20:48Z) - Learning-Enhanced Neighborhood Selection for the Vehicle Routing Problem with Time Windows [0.0]
機械学習(ML)をLarge Neighborhood Search(LNS)に統合し、LNSの各イテレーションにおいて、ソリューションのどの部分が破壊され、修復されるべきかを決定する。
我々のアプローチは普遍的に適用可能であり、すなわち、破壊アルゴリズムの動作を増幅するために任意のLSSアルゴリズムに適用することができる。
論文 参考訳(メタデータ) (2024-03-13T12:08:27Z) - Searching Large Neighborhoods for Integer Linear Programs with
Contrastive Learning [39.40838358438744]
線形プログラム(ILP)は、多数の最適化問題のモデリングと解決のための強力なツールである。
アルゴリズムとしてLarge Neighborhood Search (LNS)は、ブランチやバウンドよりも高速に、ILPの高品質なソリューションを見つけることができる。
本稿では,メトリクスによって測定された複数のILPベンチマークに対して,最先端のリアルタイム性能を実現する新しいアプローチCL-LNSを提案する。
論文 参考訳(メタデータ) (2023-02-03T07:15:37Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Learning to Hash Robustly, with Guarantees [79.68057056103014]
本稿では,理論的アルゴリズムと本質的に一致する最悪ケース保証を持つハミング空間のためのNSアルゴリズムを設計する。
理論的にも実用的にも、与えられたデータセットに対してアルゴリズムが最適化できる能力を評価する。
我々のアルゴリズムは、MNISTおよびImageNetデータセットに対する最悪のパフォーマンスのクエリを、1.8倍と2.1倍の精度でリコールする。
論文 参考訳(メタデータ) (2021-08-11T20:21:30Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - A General Large Neighborhood Search Framework for Solving Integer Linear
Programs [46.62993477453986]
我々は整数プログラムの解法に重点を置いており、我々のアプローチは大規模近傍探索(SLN)パラダイムに根ざしている。
我々のLSSフレームワークは、Gurobiのような最先端の商用解法と比較して、大幅に性能が向上することを示した。
論文 参考訳(メタデータ) (2020-03-29T23:08:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。