論文の概要: Distilling Reasoning Without Knowledge: A Framework for Reliable LLMs
- arxiv url: http://arxiv.org/abs/2603.14458v1
- Date: Sun, 15 Mar 2026 16:06:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.818913
- Title: Distilling Reasoning Without Knowledge: A Framework for Reliable LLMs
- Title(参考訳): 知識のない推論を蒸留する - 信頼性の高いLLMのためのフレームワーク
- Authors: Auksarapak Kietkajornrit, Jad Tarifi, Nima Asgharbeygi,
- Abstract要約: 本稿では,実際の検索と回答の合成からプランニングを分離するモジュラーフレームワークを提案する。
ライトウェイトな学生プランナーは、教師-学生フレームワークを介して訓練され、構造化された分解を生成する。
提案手法をSEAL-0(SEAL-0)で評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fact-seeking question answering with large language models (LLMs) remains unreliable when answers depend on up-to-date or conflicting information. Although retrieval-augmented and tool-using LLMs reduce hallucinations, they often rely on implicit planning, leading to inefficient tool usage. We propose a modular framework that explicitly separates planning from factual retrieval and answer synthesis. A lightweight student planner is trained via a teacher-student framework to generate structured decompositions consisting of abstract reasoning steps and searchable fact requests. The supervision signals contain only planning traces and fact requests, without providing factual answers or retrieved evidence. At inference, the planner produces plans, while prompt-engineered modules perform retrieval and response synthesis. We evaluate the proposed framework on SEAL-0, an extremely challenging benchmark for search-augmented LLMs. Results show that supervised planning improves both accuracy and latency compared to monolithic reasoning models and prompt-based tool-augmented frameworks, demonstrating that explicitly learned planning structures are essential for reliable fact-seeking LLMs.
- Abstract(参考訳): 大きな言語モデル (LLM) で答える実測的な質問は、答えが最新の情報や矛盾する情報に依存する場合、信頼性が低いままである。
検索が強化され、ツールを使用するLLMは幻覚を減少させるが、暗黙の計画に依存することが多く、非効率なツールの使用につながる。
本稿では,実際の検索と回答の合成から計画を明確に分離するモジュラーフレームワークを提案する。
軽量な学生プランナーは教師の学習フレームワークを介して訓練され、抽象的な推論ステップと検索可能な事実要求からなる構造化された分解を生成する。
監視信号は、事実の回答や証拠の回収なしに、計画的トレースと事実要求のみを含む。
推測において、プランナーは計画を生成し、プロンプトエンジニアリングされたモジュールは検索および応答合成を行う。
提案手法をSEAL-0(SEAL-0)で評価した。
その結果、教師ありプランニングはモノリシック推論モデルやプロンプトベースのツール拡張フレームワークと比較して精度とレイテンシを向上し、信頼性の高いファクト検索 LLM には明示的に学習されたプランニング構造が不可欠であることを示した。
関連論文リスト
- Self-Reflective Planning with Knowledge Graphs: Enhancing LLM Reasoning Reliability for Question Answering [9.601307470705732]
本稿では,知識グラフと大規模言語モデルを相乗化するフレームワークである自己回帰計画(SRP)を提案する。
計画プロセスにおいて、SRPはまず、ガイドプランニングとリフレクションのための参照を検索する。
推論経路を介してKGから知識を検索した後、検索結果を判断し、回答が正しく検索されるまで推論経路を編集して反復反射を行う。
論文 参考訳(メタデータ) (2025-05-26T01:59:00Z) - DataPuzzle: Breaking Free from the Hallucinated Promise of LLMs in Data Analysis [10.98270220152657]
大規模言語モデル(LLM)は、マルチモーダルデータ分析にますます応用されている。
一般的なPrompt-to-Answer'パラダイムは、LSMをブラックボックスアナリストとして扱う。
複雑な質問を分解する概念的マルチエージェントフレームワークであるDataPuzzleを提案する。
論文 参考訳(メタデータ) (2025-04-14T09:38:23Z) - Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - Learning to Plan for Retrieval-Augmented Large Language Models from Knowledge Graphs [59.76268575344119]
知識グラフ(KG)から得られた計画データを用いて,大規模言語モデル(LLM)計画能力を向上するための新しいフレームワークを提案する。
KGデータで微調整されたLLMは、計画能力を向上し、検索を含む複雑なQAタスクを処理するのがより適している。
論文 参考訳(メタデータ) (2024-06-20T13:07:38Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [68.29746557968107]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。