論文の概要: ReasoningRank: Teaching Student Models to Rank through Reasoning-Based Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2410.05168v1
- Date: Mon, 7 Oct 2024 16:25:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 23:49:12.269588
- Title: ReasoningRank: Teaching Student Models to Rank through Reasoning-Based Knowledge Distillation
- Title(参考訳): ReasoningRank: Reasoning-based Knowledge Distillation による学生のランク付け指導
- Authors: Yuelyu Ji, Zhuochun Li, Rui Meng, Daqing He,
- Abstract要約: ReasoningRankは2種類の推論を生成することによって明確性を高める新しいアプローチである。
我々は、大きな言語モデル(LLM)を教師モデルとして活用し、これらの説明を生成し、これらの知識をより小さく、よりリソース効率の良い学生モデルに抽出する。
実験によると、ReasoningRankは精度を向上し、意思決定プロセスに関する貴重な洞察を提供する。
- 参考スコア(独自算出の注目度): 11.756344944226495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reranking documents based on their relevance to a given query is critical in information retrieval. Traditional reranking methods often focus on improving the initial rankings but lack transparency, failing to explain why one document is ranked higher. In this paper, we introduce ReasoningRank, a novel reranking approach that enhances clarity by generating two types of reasoning: explicit reasoning, which explains how a document addresses the query, and comparison reasoning, which justifies the relevance of one document over another. We leverage large language models (LLMs) as teacher models to generate these explanations and distill this knowledge into smaller, more resource-efficient student models. While the student models may not outperform LLMs in speed, they significantly reduce the computational burden by requiring fewer resources, making them more suitable for large-scale or resource-constrained settings. These student models are trained to both generate meaningful reasoning and rerank documents, achieving competitive performance across multiple datasets, including MSMARCO and BRIGHT. Experiments demonstrate that ReasoningRank improves reranking accuracy and provides valuable insights into the decision-making process, offering a structured and interpretable solution for reranking tasks.
- Abstract(参考訳): 情報検索において、所定のクエリとの関連性に基づくドキュメントのランク付けが重要となる。
従来のランク付け手法は、最初のランク付けを改善することに重点を置いていることが多いが、透明性が欠如している。
本稿では,文書が問合せにどう対処するかを記述した明示的推論と,他の文書との関連性を正当化する比較推論という,2つのタイプの推論を生成することによって,明確性を高める新しい評価手法であるReasoningRankを紹介する。
我々は、大きな言語モデル(LLM)を教師モデルとして活用し、これらの説明を生成し、これらの知識をより小さく、よりリソース効率の良い学生モデルに抽出する。
学生モデルはLSMを高速で上回るものではないが、リソースを少なくすることで計算負担を大幅に減らし、大規模または資源制約のある設定に適している。
これらの学生モデルは、有意義な推論と再帰的なドキュメントを生成するように訓練されており、MSMARCOやBRIGHTなど、複数のデータセットで競合するパフォーマンスを達成する。
実験では、ReasoningRankがリランク精度を改善し、意思決定プロセスに関する貴重な洞察を提供し、リランクタスクのための構造化され解釈可能なソリューションを提供する。
関連論文リスト
- DOGR: Leveraging Document-Oriented Contrastive Learning in Generative Retrieval [10.770281363775148]
生成検索における文書指向コントラスト学習(DOGR)の活用という,新規で汎用的な生成検索フレームワークを提案する。
クエリとドキュメントの関係を,直接的なインタラクションを通じて包括的にキャプチャする,2段階の学習戦略を採用している。
意味表現の学習を促進するために、否定的サンプリング手法とそれに対応するコントラスト学習目的を実装した。
論文 参考訳(メタデータ) (2025-02-11T03:25:42Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - Bridging Relevance and Reasoning: Rationale Distillation in Retrieval-Augmented Generation [43.50677378728461]
本稿では,Rationale DistillatiOnを用いた新規かつ実用的な嗜好アライメントフレームワークであるRADIOを提案する。
まず,Large Language Models (LLMs) の推論能力を活用して,問合せに要する有理を抽出する理性抽出手法を提案する。
その後、抽出された有理性に基づいて文書を再引用する合理性に基づくアライメントプロセスが設計され、その選好を調整するために再帰者を微調整する。
論文 参考訳(メタデータ) (2024-12-11T16:32:41Z) - Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - A Counterfactual Explanation Framework for Retrieval Models [4.562474301450839]
最適化フレームワークを用いて、特定のクエリに対して検索モデルに好まれない単語がどのような役割を果たすかという問題を解く。
本実験は,統計モデル(BM25など)とディープラーニングモデルの両方に対して,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2024-09-01T22:33:29Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Why So Gullible? Enhancing the Robustness of Retrieval-Augmented Models against Counterfactual Noise [14.38859858538404]
検索された文書セットでは、「関連」文書でさえ誤った情報や誤った情報を含むことがある。
我々の研究は、"関連"文書でさえ誤った情報や誤った情報を含む、より困難なシナリオを調査します。
本稿では,識別器を明示的に微調整したり,GPT-3.5に識別能力の付与を促すことによって,検索した文書間の知識衝突を処理する手法を提案する。
論文 参考訳(メタデータ) (2023-05-02T16:28:10Z) - CAPSTONE: Curriculum Sampling for Dense Retrieval with Document
Expansion [68.19934563919192]
本稿では,学習中に擬似クエリを利用して,生成したクエリと実際のクエリとの関係を徐々に向上させるカリキュラムサンプリング戦略を提案する。
ドメイン内およびドメイン外両方のデータセットに対する実験結果から,本手法が従来の高密度検索モデルより優れていることが示された。
論文 参考訳(メタデータ) (2022-12-18T15:57:46Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。