論文の概要: Overcoming Knowledge Discrepancies: Structuring Reasoning Threads through Knowledge Balancing in Interactive Scenarios
- arxiv url: http://arxiv.org/abs/2508.12100v1
- Date: Sat, 16 Aug 2025 16:41:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.566807
- Title: Overcoming Knowledge Discrepancies: Structuring Reasoning Threads through Knowledge Balancing in Interactive Scenarios
- Title(参考訳): 知識格差を克服する - 対話型シナリオにおける知識バランスによるスレッドの推論の構造化
- Authors: Daniel Burkhardt, Xiangwei Cheng,
- Abstract要約: 対話的な問題解決シナリオにおける推論は、ユーザーの理解を反映し、構造化されたドメイン知識と整合する推論スレッドを構築するモデルを必要とする。
本稿では,構造化知識の再利用を重視した人間的な推論戦略からインスピレーションを得た,プロトタイプインスパイアされた2段階のReasoning-Threads-Evaluation(ReT-Eval)フレームワークを提案する。
実験と専門家による評価により、ReT-Evalはユーザの理解を高め、最先端の推論モデルより優れていることが示された。
- 参考スコア(独自算出の注目度): 0.08983421777655154
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning in interactive problem solving scenarios requires models to construct reasoning threads that reflect user understanding and align with structured domain knowledge. However, current reasoning models often lack explicit semantic hierarchies, user-domain knowledge alignment, and principled mechanisms to prune reasoning threads for effectiveness. These limitations result in lengthy generic output that does not guide users through goal-oriented reasoning steps. To address this, we propose a prototype-inspired, two-phases Reasoning-Threads-Evaluation (ReT-Eval) framework, drawing inspiration from human-like reasoning strategies that emphasize structured knowledge reuse. In the first phase, semantically relevant knowledge structures are extracted from a sparse domain knowledge graph using a graph neural network and enriched with intrinsic large language model knowledge to resolve knowledge discrepancies. In the second phase, these threads are evaluated and pruned using a reward-guided strategy aimed at maintaining semantic coherence to generate effective reasoning threads. Experiments and expert evaluations show that ReT-Eval enhances user understanding and outperforms state-of-the-art reasoning models.
- Abstract(参考訳): 対話的な問題解決シナリオにおける推論は、ユーザーの理解を反映し、構造化されたドメイン知識と整合する推論スレッドを構築するためのモデルを必要とする。
しかし、現在の推論モデルには、明示的な意味的階層、ユーザ・ドメインの知識の整合性、そして推論スレッドを効果的に実行するための原則的なメカニズムが欠如していることが多い。
これらの制限は、ゴール指向の推論ステップを通じてユーザを誘導しない、長い汎用的な出力をもたらす。
そこで本研究では,Reasoning-Threads-Evaluation(ReT-Eval)フレームワークを試作し,構造化知識の再利用を重視した人間ライクな推論戦略からインスピレーションを得た。
第1フェーズでは、グラフニューラルネットワークを用いてスパースドメイン知識グラフから意味的関連知識構造を抽出し、本質的な大規模言語モデル知識に富み、知識の相違を解決する。
第2段階では、これらのスレッドは、効果的な推論スレッドを生成するセマンティックコヒーレンスを維持するための報酬誘導戦略を用いて評価され、刈り取られる。
実験と専門家による評価により、ReT-Evalはユーザの理解を高め、最先端の推論モデルより優れていることが示された。
関連論文リスト
- KAG-Thinker: Interactive Thinking and Deep Reasoning in LLMs via Knowledge-Augmented Generation [35.555200530999365]
我々は、KAG-Thinkerを導入し、KAGをマルチターン対話型思考と、専用パラメータライト大言語モデル(LLM)を利用した深い推論フレームワークにアップグレードする。
提案手法は,複雑な問題を解くための構造化思考プロセスを構築し,推論過程の論理的一貫性と文脈的整合性を高める。
論文 参考訳(メタデータ) (2025-06-21T14:58:53Z) - Two Experts Are All You Need for Steering Thinking: Reinforcing Cognitive Effort in MoE Reasoning Models Without Additional Training [86.70255651945602]
我々はReinforcecing Cognitive Experts(RICE)と呼ばれる新しい推論時ステアリング手法を導入する。
RICEは、追加のトレーニングや複雑化なしに推論のパフォーマンスを改善することを目的としている。
先行する MoE ベースの LRM を用いた経験的評価は、推論精度、認知効率、ドメイン間の一般化において顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2025-05-20T17:59:16Z) - Learning to Retrieve and Reason on Knowledge Graph through Active Self-Reflection [5.164923314261229]
本稿では,知識グラフ推論ARGのための能動的自己回帰フレームワークを提案する。
フレームワーク内では、特別なトークンを利用して、知識検索が必要かどうかをテキスト的に決定する。
モデルによって生成された推論経路は高い解釈可能性を示し、モデルの構造的知識に対する理解をより深く探求することができる。
論文 参考訳(メタデータ) (2025-02-20T06:38:48Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Distributional Associations vs In-Context Reasoning: A Study of Feed-forward and Attention Layers [49.80959223722325]
本研究では,大規模言語モデルにおけるフィードフォワード層とアテンション層との区別について検討する。
フィードフォワード層はビッグラムのような単純な分布関係を学習する傾向があり、注意層は文脈内推論にフォーカスする。
論文 参考訳(メタデータ) (2024-06-05T08:51:08Z) - Ontology Completion with Natural Language Inference and Concept Embeddings: An Analysis [26.918368764004796]
本研究では,特定のオントロジーから欠落する有能な知識の発見という課題を,よく研究された分類学拡張タスクの一般化として考察する。
1行の作業は、このタスクを自然言語推論(NLI)問題として扱い、不足した知識を特定するために言語モデルによって取得された知識に依存します。
別の研究の行では、概念埋め込みを使用して、カテゴリベースの帰納のための認知モデルからインスピレーションを得て、異なる概念が共通しているものを特定する。
論文 参考訳(メタデータ) (2024-03-25T21:46:35Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。