論文の概要: Discerning minds or generic tutors? Evaluating instructional guidance capabilities in Socratic LLMs
- arxiv url: http://arxiv.org/abs/2508.06583v1
- Date: Fri, 08 Aug 2025 01:02:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.453434
- Title: Discerning minds or generic tutors? Evaluating instructional guidance capabilities in Socratic LLMs
- Title(参考訳): 心の認知と汎用的教官 : ソクラティックLLMにおける指導指導能力の評価
- Authors: Ying Liu, Can Li, Ting Zhang, Mei Wang, Qiannan Zhu, Jian Li, Hua Huang,
- Abstract要約: 本研究は,単なる質問生成からより広範な指導指導能力へと焦点を移す。
実際の教育対話を基盤としたベンチマークである GuideEval を提案する。
実験の結果,既存のLLMは適応的な足場を効果的に提供できないことが判明した。
- 参考スコア(独自算出の注目度): 34.94756659609455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The conversational capabilities of large language models hold significant promise for enabling scalable and interactive tutoring. While prior research has primarily examined their capacity for Socratic questioning, it often overlooks a critical dimension: adaptively guiding learners based on their cognitive states. This study shifts focus from mere question generation to the broader instructional guidance capability. We ask: Can LLMs emulate expert tutors who dynamically adjust strategies in response to learners' understanding? To investigate this, we propose GuideEval, a benchmark grounded in authentic educational dialogues that evaluates pedagogical guidance through a three-phase behavioral framework: (1) Perception, inferring learner states; (2) Orchestration, adapting instructional strategies; and (3) Elicitation, stimulating proper reflections. Empirical findings reveal that existing LLMs frequently fail to provide effective adaptive scaffolding when learners exhibit confusion or require redirection. Furthermore, we introduce a behavior-guided finetuning strategy that leverages behavior-prompted instructional dialogues, significantly enhancing guidance performance. By shifting the focus from isolated content evaluation to learner-centered interaction, our work advocates a more dialogic paradigm for evaluating Socratic LLMs.
- Abstract(参考訳): 大規模言語モデルの対話能力は、スケーラブルでインタラクティブな学習を可能にするための大きな約束を持っている。
従来の研究では主にソクラテス的質問の能力について検討されてきたが、認知状態に基づいて学習者を適応的に導くという重要な側面を見落としていることが多い。
本研究は,単なる質問生成からより広範な指導指導能力へと焦点を移す。
LLMは、学習者の理解に応じて戦略を動的に調整する専門家の指導者をエミュレートできるだろうか?
そこで,本研究では,(1)知覚,学習者状態の推測,(2)編成,指導戦略の適応,(3)引用,適切な反射の刺激といった3段階の行動枠組みを通じて教育指導を評価する,真の教育対話を基盤としたベンチマークである GuideEvalを提案する。
学習者が混乱やリダイレクトを必要とする場合,既存のLLMは効果的な適応的足場を提供できないことが実証された。
さらに,動作促進型指導対話を活用する行動誘導型微調整戦略を導入し,指導性能を著しく向上させる。
独立したコンテンツ評価から学習者中心のインタラクションへと焦点を移すことで、ソクラテスのLCMを評価するためのより対話的なパラダイムを提唱する。
関連論文リスト
- \textsc{SimInstruct}: A Responsible Tool for Collecting Scaffolding Dialogues Between Experts and LLM-Simulated Novices [21.67295740032255]
SimInstructは、スキャフォールディングダイアログを収集するための、スケーラブルで専門的なループツールである。
SimInstructは、開発コーチングをサンプルドメインとして使用し、LLMを通して初心者インストラクターをシミュレートする。
その結果,外向性や内向性といったペルソナの特徴が,専門家の関わり方に有意な影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2025-08-06T13:16:10Z) - Dialogic Pedagogy for Large Language Models: Aligning Conversational AI with Proven Theories of Learning [1.2691047660244332]
大言語モデル(LLM)は、リッチな会話学習体験を可能にすることによって、教育を変革している。
本稿では,LLMをベースとした会話エージェントが高等教育にどのように利用されているのかを概観する。
論文 参考訳(メタデータ) (2025-06-24T10:19:09Z) - Improving Student-AI Interaction Through Pedagogical Prompting: An Example in Computer Science Education [1.1517315048749441]
大規模言語モデル(LLM)アプリケーションは、興奮と懸念の両方を引き起こした。
最近の研究は、LLMの誤用が学習の妨げとなることを一貫して強調している。
本研究の目的は,LLMの学習改善を効果的に促進する方法を学生に教えることである。
論文 参考訳(メタデータ) (2025-06-23T20:39:17Z) - A Practical Guide for Supporting Formative Assessment and Feedback Using Generative AI [0.0]
大規模言語モデル(LLM)は、学生、教師、同僚が「学習者が行く場所」、「学習者が現在いる場所」、「学習者を前進させる方法」を理解するのに役立つ。
本総説では,LSMを形式的評価に統合するための総合的な基盤を提供する。
論文 参考訳(メタデータ) (2025-05-29T12:52:43Z) - From Problem-Solving to Teaching Problem-Solving: Aligning LLMs with Pedagogy using Reinforcement Learning [76.09281171131941]
大規模言語モデル(LLM)は教育を変換することができるが、直接質問応答のための最適化はしばしば効果的な教育を損なう。
オンライン強化学習(RL)に基づくアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T15:00:07Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。