論文の概要: The Evolution of Reranking Models in Information Retrieval: From Heuristic Methods to Large Language Models
- arxiv url: http://arxiv.org/abs/2512.16236v1
- Date: Thu, 18 Dec 2025 06:29:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.953213
- Title: The Evolution of Reranking Models in Information Retrieval: From Heuristic Methods to Large Language Models
- Title(参考訳): 情報検索における上位モデルの進化:ヒューリスティックな方法から大規模言語モデルへ
- Authors: Tejul Pandit, Sakshi Mahendru, Meet Raval, Dhvani Upadhyay,
- Abstract要約: リランクは情報検索システムにおいて重要な段階であり、ユーザが提示した最終結果の関連性を改善している。
本論文は,リランカーの景観変化を概観するガイドであり,リグレード手法の進歩を概観するものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reranking is a critical stage in contemporary information retrieval (IR) systems, improving the relevance of the user-presented final results by honing initial candidate sets. This paper is a thorough guide to examine the changing reranker landscape and offer a clear view of the advancements made in reranking methods. We present a comprehensive survey of reranking models employed in IR, particularly within modern Retrieval Augmented Generation (RAG) pipelines, where retrieved documents notably influence output quality. We embark on a chronological journey through the historical trajectory of reranking techniques, starting with foundational approaches, before exploring the wide range of sophisticated neural network architectures such as cross-encoders, sequence-generation models like T5, and Graph Neural Networks (GNNs) utilized for structural information. Recognizing the computational cost of advancing neural rerankers, we analyze techniques for enhancing efficiency, notably knowledge distillation for creating competitive, lighter alternatives. Furthermore, we map the emerging territory of integrating Large Language Models (LLMs) in reranking, examining novel prompting strategies and fine-tuning tactics. This survey seeks to elucidate the fundamental ideas, relative effectiveness, computational features, and real-world trade-offs of various reranking strategies. The survey provides a structured synthesis of the diverse reranking paradigms, highlighting their underlying principles and comparative strengths and weaknesses.
- Abstract(参考訳): コンテンポラリー情報検索(IR)システムにおいて、リランクは重要な段階であり、初期候補セットをホーニングすることで、ユーザが提示した最終結果の関連性を改善する。
本稿では,リランカーの景観変化を概観するとともに,リグレード手法の進歩を概観する。
本稿では、IRで使用されるリグレードモデルの総合的な調査を行い、特に現代のレトリーバル拡張生成(RAG)パイプラインにおいて、検索された文書が出力品質に顕著に影響を及ぼすことを示す。
我々は、クロスエンコーダ、T5のようなシーケンス生成モデル、構造情報を利用するグラフニューラルネットワーク(GNN)など、幅広い高度なニューラルネットワークアーキテクチャを探索する前に、基礎的なアプローチから始まる、リグレードテクニックの歴史的軌跡を経た時系列的な旅に乗り出した。
ニューラルリランカーの進歩の計算コストを認識して、特に、競争力のある軽量な代替品を作るための知識蒸留技術を分析する。
さらに,Large Language Models (LLMs) を統合する新たな領域について,新たなプロンプト戦略と微調整戦術について検討した。
本調査は, 様々な戦略の基本的な考え方, 相対的有効性, 計算的特徴, 実世界のトレードオフを明らかにすることを目的としている。
この調査は、様々な再分類パラダイムの構造的な合成を提供し、基礎となる原則と、比較する強みと弱みを強調している。
関連論文リスト
- A Systematic Review of Key Retrieval-Augmented Generation (RAG) Systems: Progress, Gaps, and Future Directions [1.4931265249949528]
Retrieval-Augmented Generation (RAG)は自然言語処理(NLP)における大きな進歩である
RAGは、大規模言語モデル(LLM)と情報検索システムを組み合わせて、事実的根拠付け、正確性、文脈的関連性を高める。
本稿ではRAGの体系的なレビューを行い、最近の最先端実装に対するオープンドメイン質問の早期展開から進化を辿る。
論文 参考訳(メタデータ) (2025-07-25T03:05:46Z) - A Survey of Model Architectures in Information Retrieval [59.61734783818073]
2019年から現在までの期間は、情報検索(IR)と自然言語処理(NLP)における最大のパラダイムシフトの1つとなっている。
従来の用語ベースの手法から現代のニューラルアプローチまで,特にトランスフォーマーベースのモデルとそれに続く大規模言語モデル(LLM)の影響が注目されている。
今後の課題と今後の方向性について、先見的な議論で締めくくります。
論文 参考訳(メタデータ) (2025-02-20T18:42:58Z) - A Survey on All-in-One Image Restoration: Taxonomy, Evaluation and Future Trends [67.43992456058541]
画像復元(IR)は、ノイズ、ぼかし、圧縮、悪天候など幅広い要因によって生じる劣化した観察から高品質な画像の復元を目指している。
従来のIR法は、個々の劣化タイプを対象とすることで顕著な進歩を遂げてきたが、それらの特殊化は、しばしば一般化のコストがかかる。
オールインワンのイメージ復元パラダイムが最近登場し、複数の劣化タイプに順応的に対処する統一されたフレームワークを提供している。
論文 参考訳(メタデータ) (2024-10-19T11:11:09Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。