論文の概要: Exploring Conversational Design Choices in LLMs for Pedagogical Purposes: Socratic and Narrative Approaches for Improving Instructor's Teaching Practice
- arxiv url: http://arxiv.org/abs/2509.12107v1
- Date: Mon, 15 Sep 2025 16:33:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.402967
- Title: Exploring Conversational Design Choices in LLMs for Pedagogical Purposes: Socratic and Narrative Approaches for Improving Instructor's Teaching Practice
- Title(参考訳): 教育的目的のためのLLMにおける会話型デザイン選択の探索--教師の指導実践を改善するためのソクラテス的・ナララティブなアプローチ
- Authors: Si Chen, Isabel R. Molnar, Peiyu Li, Adam Acunin, Ting Hua, Alex Ambrose, Nitesh V. Chawla, Ronald Metoyer,
- Abstract要約: 本研究では,2つの対話的アプローチを通じて指導者の専門的発達を支援する大規模言語モデルであるTeaPTを評価する。
指導的質問を用いてリフレクションを育むソクラテス的アプローチと、外部認知を拡張するための詳細な提案を提供するナララティブアプローチである。
経験の浅いAI最適化インストラクターはソクラテス版を好んだが、より経験の浅いAI教育インストラクターはナラティブ版を好んだ。
- 参考スコア(独自算出の注目度): 24.54129847914925
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Large language models (LLMs) typically generate direct answers, yet they are increasingly used as learning tools. Studying instructors' usage is critical, given their role in teaching and guiding AI adoption in education. We designed and evaluated TeaPT, an LLM for pedagogical purposes that supports instructors' professional development through two conversational approaches: a Socratic approach that uses guided questioning to foster reflection, and a Narrative approach that offers elaborated suggestions to extend externalized cognition. In a mixed-method study with 41 higher-education instructors, the Socratic version elicited greater engagement, while the Narrative version was preferred for actionable guidance. Subgroup analyses further revealed that less-experienced, AI-optimistic instructors favored the Socratic version, whereas more-experienced, AI-cautious instructors preferred the Narrative version. We contribute design implications for LLMs for pedagogical purposes, showing how adaptive conversational approaches can support instructors with varied profiles while highlighting how AI attitudes and experience shape interaction and learning.
- Abstract(参考訳): 大規模言語モデル(LLM)は一般的に直接的な回答を生成するが、学習ツールとしての利用が増えている。
教員の教育におけるAI導入の指導と指導における役割を考えると、教員の活用は重要である。
本研究では,教官の専門的発達を支援する教育的目的のためのLLMであるTeaPTを設計,評価した。
41人の高等教育教員による混成研究において、ソクラテス語版はより大きな関与を招き、ナラティブ語版は行動可能な指導に好まれた。
サブグループ分析により、経験の浅いAI最適化インストラクターがソクラテス版を好んだのに対し、より経験の浅いAI教育インストラクターはナラティブ版を好んだことが明らかとなった。
教育的な目的のためにLLMの設計に寄与し、AIの態度や経験的な形状の相互作用や学習を強調しながら、様々なプロファイルを持つインストラクターを適応的な会話アプローチがいかに支援できるかを示す。
関連論文リスト
- Discerning minds or generic tutors? Evaluating instructional guidance capabilities in Socratic LLMs [34.94756659609455]
本研究は,単なる質問生成からより広範な指導指導能力へと焦点を移す。
実際の教育対話を基盤としたベンチマークである GuideEval を提案する。
実験の結果,既存のLLMは適応的な足場を効果的に提供できないことが判明した。
論文 参考訳(メタデータ) (2025-08-08T01:02:44Z) - \textsc{SimInstruct}: A Responsible Tool for Collecting Scaffolding Dialogues Between Experts and LLM-Simulated Novices [21.67295740032255]
SimInstructは、スキャフォールディングダイアログを収集するための、スケーラブルで専門的なループツールである。
SimInstructは、開発コーチングをサンプルドメインとして使用し、LLMを通して初心者インストラクターをシミュレートする。
その結果,外向性や内向性といったペルソナの特徴が,専門家の関わり方に有意な影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2025-08-06T13:16:10Z) - Improving Student-AI Interaction Through Pedagogical Prompting: An Example in Computer Science Education [1.1517315048749441]
大規模言語モデル(LLM)アプリケーションは、興奮と懸念の両方を引き起こした。
最近の研究は、LLMの誤用が学習の妨げとなることを一貫して強調している。
本研究の目的は,LLMの学習改善を効果的に促進する方法を学生に教えることである。
論文 参考訳(メタデータ) (2025-06-23T20:39:17Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - SPL: A Socratic Playground for Learning Powered by Large Language Model [5.383689446227398]
ソクラティック・プレイグラウンド・フォー・ラーニング (SPL) は GPT-4 をベースとした対話型プレイグラウンドである。
SPLは、個人のニーズに合わせてパーソナライズされた適応的な学習体験を強化することを目的としている。
論文 参考訳(メタデータ) (2024-06-20T01:18:52Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。