論文の概要: Improve Rule Retrieval and Reasoning with Self-Induction and Relevance ReEstimate
- arxiv url: http://arxiv.org/abs/2505.10870v1
- Date: Fri, 16 May 2025 05:22:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.086436
- Title: Improve Rule Retrieval and Reasoning with Self-Induction and Relevance ReEstimate
- Title(参考訳): 自己推論と妥当性推定によるルール検索と推論の改善
- Authors: Ziyang Huang, Wangtao Sun, Jun Zhao, Kang Liu,
- Abstract要約: 本稿では,ルール検索の課題を体系的に解決する。
スパースや密集したレトリバーを用いて関連するルールを直接検索するバニラ検索法は、しばしば低い精度に悩まされる。
本稿では,Large Language Models (LLMs) を用いて潜在的な推論規則を導出する新しい手法であるSelf-Induction Augmented Retrieval (SIAR)を提案する。
- 参考スコア(独自算出の注目度): 11.890202757543307
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper systematically addresses the challenges of rule retrieval, a crucial yet underexplored area. Vanilla retrieval methods using sparse or dense retrievers to directly search for relevant rules to support downstream reasoning, often suffer from low accuracy. This is primarily due to a significant semantic gap between the instantiated facts in the queries and the abstract representations of the rules. Such misalignment results in suboptimal retrieval quality, which in turn negatively impacts reasoning performance. To overcome these challenges, we propose Self-Induction Augmented Retrieval (SIAR), a novel approach that utilizes Large Language Models (LLMs) to induce potential inferential rules that might offer benefits for reasoning by abstracting the underlying knowledge and logical structure in queries. These induced rules are then used for query augmentation to improve retrieval effectiveness. Additionally, we introduce Rule Relevance ReEstimate (R$^3$), a method that re-estimates the relevance of retrieved rules by assessing whether the abstract knowledge they contain can be instantiated to align with the facts in the queries and the helpfulness for reasoning. Extensive experiments across various settings demonstrate the effectiveness and versatility of our proposed methods.
- Abstract(参考訳): 本稿では,ルール検索の課題を体系的に解決する。
スパースまたは密度の高いレトリバーを用いて、下流の推論をサポートするための関連するルールを直接検索するバニラ検索法は、しばしば低い精度に悩まされる。
これは主に、クエリのインスタンス化された事実とルールの抽象的な表現の間に大きな意味的ギャップがあるためである。
このようなミスアライメントは、最適以下の検索品質をもたらし、結果的に推論性能に悪影響を及ぼす。
これらの課題を克服するために,大規模言語モデル(LLM)を利用した新たな手法である自己推論拡張検索(SIAR)を提案する。
これらのルールは、検索効率を向上させるためにクエリ拡張に使用される。
さらに、検索されたルールの関連性を再評価するR$^3$(R$^3$)を導入し、それらに含まれる抽象的な知識をインスタンス化して、クエリの事実と推論の有用性に合わせることができるかどうかを評価する。
提案手法の有効性と汎用性について検討した。
関連論文リスト
- Search and Refine During Think: Autonomous Retrieval-Augmented Reasoning of LLMs [23.281040584710635]
大きな言語モデルは印象的な推論能力を示してきたが、本質的には知識貯水池によって制限されている。
Retrieval-augmented reasoningは、LCMが外部リソースをクエリできるようにすることによって、この制限を緩和する。
本稿では,新しい探索・復調思考のパラダイムを取り入れた強化学習フレームワークであるAutoRefineを提案する。
論文 参考訳(メタデータ) (2025-05-16T14:11:29Z) - Elevating Legal LLM Responses: Harnessing Trainable Logical Structures and Semantic Knowledge with Legal Reasoning [19.477062052536887]
意味と論理的コヒーレンスを橋渡しする教師ありフレームワークである論理・意味統合モデル(LSIM)を提案する。
LSIMは3つの要素から構成される: 強化学習は各質問に対して構造化されたファクトルールチェーンを予測し、訓練可能なDeep Structured Semantic Model(DSSM)は最も関連性の高い質問を検索し、回答内学習は最終回答を生成する。
LSIMが従来の手法に比べて精度と信頼性を著しく向上させるような,自動測定と人的評価デーモンレートによる実世界の法的データセットのQA検証実験を行った。
論文 参考訳(メタデータ) (2025-02-11T19:33:07Z) - Eliciting Causal Abilities in Large Language Models for Reasoning Tasks [14.512834333917414]
我々は,LLMが高品質で低品質な観測データを生成することができる自己因果的指導強化法(SCIE)を導入する。
SCIEでは、命令は治療として扱われ、自然言語を処理するためにテキストの特徴が使用される。
提案手法は,プロンプトのトレーニングコストを削減し,推論性能を向上させる命令を効果的に生成する。
論文 参考訳(メタデータ) (2024-12-19T17:03:02Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - FiDeLiS: Faithful Reasoning in Large Language Model for Knowledge Graph Question Answering [46.41364317172677]
大規模言語モデル(LLM)は、しばしば誤応答や幻覚応答を発生させることによって挑戦される。
我々は,KGから検索した検証可能な推論ステップに回答をアンカーすることで,LLM応答の事実性を改善するための統合フレームワークFiDeLiSを提案する。
論文 参考訳(メタデータ) (2024-05-22T17:56:53Z) - Large Language Models as an Indirect Reasoner: Contrapositive and Contradiction for Automated Reasoning [74.90592233107712]
本稿では,直接推論 (DR) と間接推論 (IR) を並列な複数の推論経路として考慮し,最終解を導出する直接間接推論 (DIR) 手法を提案する。
我々のDIR法は単純だが有効であり、既存のCoT法と簡単に統合できる。
論文 参考訳(メタデータ) (2024-02-06T03:41:12Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - EviDR: Evidence-Emphasized Discrete Reasoning for Reasoning Machine
Reading Comprehension [39.970232108247394]
R-MRC(Reasoning Machine reading comprehension)は、テキストに基づく離散推論を必要とする複雑な質問に答えることを目的としている。
最先端のパフォーマンスを実現する従来のエンドツーエンドの手法は、証拠のモデリングに十分な注意を払うことで、この問題を解決することはめったにない。
文と節レベルの証拠を遠方からの監視に基づいて最初に検出するエビデンス強調離散推論手法(EviDR)を提案する。
論文 参考訳(メタデータ) (2021-08-18T06:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。