論文の概要: Improving Procedural Skill Explanations via Constrained Generation: A Symbolic-LLM Hybrid Architecture
- arxiv url: http://arxiv.org/abs/2511.20942v1
- Date: Wed, 26 Nov 2025 00:29:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.907243
- Title: Improving Procedural Skill Explanations via Constrained Generation: A Symbolic-LLM Hybrid Architecture
- Title(参考訳): 制約生成による手続き的スキル説明の改善:シンボリック・LLMハイブリッドアーキテクチャ
- Authors: Rahul Dass, Thomas Bowlin, Zebing Li, Xiao Jin, Ashok Goel,
- Abstract要約: 手続き的スキル学習では、指示的説明はステップだけでなく、その背後にある因果的、ゴール指向的、構成論理を伝達しなければならない。
Ivyは、記号的タスク・メソッド・知識(TMK)モデルと生成的解釈層を組み合わせ、構造化された多段階的な説明を提供するAIコーチングシステムである。
- 参考スコア(独自算出の注目度): 2.6141337419964725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In procedural skill learning, instructional explanations must convey not just steps, but the causal, goal-directed, and compositional logic behind them. Large language models (LLMs) often produce fluent yet shallow responses that miss this structure. We present Ivy, an AI coaching system that delivers structured, multi-step explanations by combining symbolic Task-Method-Knowledge (TMK) models with a generative interpretation layer-an LLM that constructs explanations while being constrained by TMK structure. TMK encodes causal transitions, goal hierarchies, and problem decompositions, and guides the LLM within explicit structural bounds. We evaluate Ivy against responses against GPT and retrieval-augmented GPT baselines using expert and independent annotations across three inferential dimensions. Results show that symbolic constraints consistently improve the structural quality of explanations for "how" and "why" questions. This study demonstrates a scalable AI for education approach that strengthens the pedagogical value of AI-generated explanations in intelligent coaching systems.
- Abstract(参考訳): 手続き的スキル学習では、指示的説明はステップだけでなく、その背後にある因果的、ゴール指向的、構成論理を伝達しなければならない。
大規模言語モデル(LLM)は、しばしばこの構造を見逃すような流動的かつ浅い応答を生成する。
Ivyは,記号的タスク・メソッド・知識(TMK)モデルと,TMK構造に制約されながら説明を構成する生成的解釈層とを組み合わせることで,構造化された多段階の説明を提供するAIコーチングシステムである。
TMKは因果遷移、ゴール階層、問題分解を符号化し、明示的な構造境界内でLLMを誘導する。
我々は,3次元にわたる専門家および独立アノテーションを用いて,GPTおよび検索強化GPTベースラインに対する応答に対するIvyの評価を行った。
その結果、記号的制約は「どのように」質問や「なぜ」質問に対する説明の構造的品質を一貫して改善することを示した。
本研究では、インテリジェントコーチングシステムにおけるAI生成の説明の教育的価値を高める、スケーラブルな教育用AIを実証する。
関連論文リスト
- Neuro Symbolic Knowledge Reasoning for Procedural Video Question Answering [19.584250585159527]
PKR-QA(Procedural Knowledge Reasoning Question Answering)は、構造化推論を必要とする手続き的タスクに対する質問応答のための新しいベンチマークである。
PKR-QAは手続き的知識グラフ(PKG)を用いて半自動で構築される。
解釈可能な推論を可能にするために,ニューラルモジュールを通して手続き的関係を学習する知識モジュール学習(KML)と呼ばれるニューロシンボリックアプローチを提案する。
論文 参考訳(メタデータ) (2025-03-19T07:49:14Z) - GRS-QA -- Graph Reasoning-Structured Question Answering Dataset [50.223851616680754]
グラフ推論-構造化質問応答データセット(GRS-QA)を導入する。
既存のM-QAデータセットとは異なり、GRS-QAは推論グラフを構築することで複雑な推論経路を明示的にキャプチャする。
実験により, LLMは, 様々な推論構造を用いて, 問合せ処理を行う際に, 異なる性能を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-11-01T05:14:03Z) - Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - Hierarchical Deconstruction of LLM Reasoning: A Graph-Based Framework for Analyzing Knowledge Utilization [30.349165483935682]
大規模言語モデル(LLM)が推論の知識をどのように利用するのかは、まだよく分かっていない。
我々は,DepthQAデータセットを開発し,質問を3つの深さに分解する: (i)概念的知識の想起, (ii)手続き的知識の適用, (iii)戦略的知識の分析。
差分パターンは、モデルのキャパシティとトレーニングデータ記憶の可能性にまたがって観察される。
論文 参考訳(メタデータ) (2024-06-27T19:29:36Z) - Parrot Mind: Towards Explaining the Complex Task Reasoning of Pretrained Large Language Models with Template-Content Structure [66.33623392497599]
テンプレート・コンテント構造(T-C構造)と呼ばれる構造は指数レベルから線形レベルへの可能な空間を減少させることができることを示す。
モデルがタスク構成を達成でき、線形から対数への学習に必要なスペースをさらに削減できることを実証する。
論文 参考訳(メタデータ) (2023-10-09T06:57:45Z) - Query Structure Modeling for Inductive Logical Reasoning Over Knowledge
Graphs [67.043747188954]
KGに対する帰納的論理的推論のための構造モデル付きテキスト符号化フレームワークを提案する。
線形化されたクエリ構造とエンティティを、事前訓練された言語モデルを使ってエンコードして、回答を見つける。
2つの帰納的論理推論データセットと3つの帰納的推論データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-23T01:25:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。