論文の概要: REALM: Recursive Relevance Modeling for LLM-based Document Re-Ranking
- arxiv url: http://arxiv.org/abs/2508.18379v1
- Date: Mon, 25 Aug 2025 18:13:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.543064
- Title: REALM: Recursive Relevance Modeling for LLM-based Document Re-Ranking
- Title(参考訳): REALM: LLMに基づく文書再帰のための再帰的関連モデリング
- Authors: Pinhuan Wang, Zhiqiu Xia, Chunhua Liao, Feiyi Wang, Hang Liu,
- Abstract要約: 大規模言語モデル(LLM)は、ドキュメントの再ランク付けにおいて強力な能力を示している。
我々は不確実性を認識した再分類フレームワークであるREALMを提案する。
本稿では,REALMが最先端の再ランカを上回るとともに,トークン使用率やレイテンシを大幅に低減していることを示す。
- 参考スコア(独自算出の注目度): 7.183085245898039
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) have shown strong capabilities in document re-ranking, a key component in modern Information Retrieval (IR) systems. However, existing LLM-based approaches face notable limitations, including ranking uncertainty, unstable top-k recovery, and high token cost due to token-intensive prompting. To effectively address these limitations, we propose REALM, an uncertainty-aware re-ranking framework that models LLM-derived relevance as Gaussian distributions and refines them through recursive Bayesian updates. By explicitly capturing uncertainty and minimizing redundant queries, REALM achieves better rankings more efficiently. Experimental results demonstrate that our REALM surpasses state-of-the-art re-rankers while significantly reducing token usage and latency, promoting it as the next-generation re-ranker for modern IR systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、現代の情報検索(IR)システムにおいて重要なコンポーネントである文書再ランクにおいて、強力な機能を示している。
しかし、既存のLCMベースのアプローチは、ランキングの不確実性、不安定なトップkリカバリ、トークン集約的なプロンプトによる高いトークンコストなど、顕著な制限に直面している。
これらの制約を効果的に解決するために,LLM由来の妥当性をガウス分布としてモデル化し,再帰的ベイズ更新によってそれらを洗練する不確実性を考慮した再分類フレームワークREALMを提案する。
不確実性を明示的に把握し、冗長なクエリを最小限にすることで、REALMはより良いランキングをより効率的に達成する。
実験の結果,REALMはトークン使用率と遅延を著しく低減し,最新のIRシステムにおける次世代の再ランカとして促進した。
関連論文リスト
- ProRank: Prompt Warmup via Reinforcement Learning for Small Language Models Reranking [8.244386008877441]
本稿では,SLM ベースの文書更新のための新しい2段階トレーニング手法 ProRank を提案する。
まず、強化学習GRPOを用いてSLMを操り、タスクプロンプトを理解するプロンプトウォームアップステージを提案する。
そこで我々は,精巧なスコア学習段階を連続的に微調整し,付加層を導入することなく品質向上を図る。
論文 参考訳(メタデータ) (2025-06-04T02:00:44Z) - An Early FIRST Reproduction and Improvements to Single-Token Decoding for Fast Listwise Reranking [50.81324768683995]
FIRSTは、学習からランクへの目的を統合し、最初の生成されたトークンのみのロジットを活用する新しいアプローチである。
我々は、FIRSTの評価をTRECディープラーニングデータセット(DL19-22)に拡張し、様々な領域でその堅牢性を検証する。
我々の実験は、単一トークンの高速リランクは、ドメイン外リランクの品質を損なうものではないことを確認した。
論文 参考訳(メタデータ) (2024-11-08T12:08:17Z) - Attention in Large Language Models Yields Efficient Zero-Shot Re-Rankers [7.6245627565464]
大規模言語モデル(LLM)は、赤外線システムにおいてゼロショットの再ランク付けに人気がある。
本稿では,検索クエリによる注目パターンの変化を利用した,高精度かつ効率的な再ランク付け手法であるin-context re- rank (ICR)を提案する。
本研究は,テキスト生成を超越したオープンウェイトLCMの新たな利用方法を探究することを目的とする。
論文 参考訳(メタデータ) (2024-10-03T16:25:37Z) - VinePPO: Refining Credit Assignment in RL Training of LLMs [66.80143024475635]
我々は,言語環境の柔軟性を利用してモンテカルロをベースとした推定値を計算する,簡単なアプローチであるVinePPOを提案する。
本手法は,MATHおよびGSM8Kデータセット間のPPOおよび他のベースラインをウォールクロック時間以下で連続的に上回る。
論文 参考訳(メタデータ) (2024-10-02T15:49:30Z) - FIRST: Faster Improved Listwise Reranking with Single Token Decoding [56.727761901751194]
まず、第1生成識別子の出力ロジットを活用して、候補のランク付け順序を直接取得する新しいリストワイズLLMリグレードアプローチであるFIRSTを紹介する。
実験結果から、BEIRベンチマークの利得により、FIRSTはロバストなランキング性能を維持しつつ、推論を50%高速化することが示された。
以上の結果から,LLMリランカーはクロスエンコーダに比べて強い蒸留信号を提供できることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T21:27:50Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Reinforcement Retrieval Leveraging Fine-grained Feedback for Fact Checking News Claims with Black-Box LLM [7.702325506088706]
本稿では, ニュースクレームの事実チェックを強化するために, FFRR(Reinforcement Retrieval)を用いたきめ細かいフィードバックを利用する手法を提案する。
実世界のニュースクレーム検証のための2つの公開データセット上で本モデルを評価する。
論文 参考訳(メタデータ) (2024-04-26T09:38:27Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。