論文の概要: Exploring LLMs for Predicting Tutor Strategy and Student Outcomes in Dialogues
- arxiv url: http://arxiv.org/abs/2507.06910v1
- Date: Wed, 09 Jul 2025 14:47:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.631188
- Title: Exploring LLMs for Predicting Tutor Strategy and Student Outcomes in Dialogues
- Title(参考訳): 対話における教師戦略予測のためのLLMの探索と学生の成果
- Authors: Fareya Ikram, Alexander Scarlatos, Andrew Lan,
- Abstract要約: 近年の研究では、教師が使う戦略が学生の成績に重大な影響を与えることが示されている。
対話における教師戦略の予測に関する研究は少ない。
本稿では,現代のLLM,特にLlama 3 と GPT-4o を用いて,対話における将来の教師の動きと学生の成果を予測する能力について検討する。
- 参考スコア(独自算出の注目度): 48.99818550820575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tutoring dialogues have gained significant attention in recent years, given the prominence of online learning and the emerging tutoring abilities of artificial intelligence (AI) agents powered by large language models (LLMs). Recent studies have shown that the strategies used by tutors can have significant effects on student outcomes, necessitating methods to predict how tutors will behave and how their actions impact students. However, few works have studied predicting tutor strategy in dialogues. Therefore, in this work we investigate the ability of modern LLMs, particularly Llama 3 and GPT-4o, to predict both future tutor moves and student outcomes in dialogues, using two math tutoring dialogue datasets. We find that even state-of-the-art LLMs struggle to predict future tutor strategy while tutor strategy is highly indicative of student outcomes, outlining a need for more powerful methods to approach this task.
- Abstract(参考訳): 近年,オンライン学習の普及や,大規模言語モデル(LLM)を活用した人工知能(AI)エージェントの学習能力の台頭など,学習対話が注目されている。
近年の研究では、教師が使用する戦略が学生の成果、教師の振る舞いの予測方法、生徒の行動に重大な影響を与えることが示されている。
しかし、対話における教師戦略の予測について研究する研究はほとんどない。
そこで本研究では,現代のLLM,特にLlama 3 と GPT-4o の対話における将来の学習者の動きと学生の成果を予測する能力について,2つの対話データセットを用いて検討する。
現状のLLMでさえ、将来のチューター戦略を予測するのに苦労しているのに対して、チューター戦略は学生の成果を強く示唆しており、この課題にアプローチするためのより強力な方法の必要性を概説している。
関連論文リスト
- Training LLM-based Tutors to Improve Student Learning Outcomes in Dialogues [46.60683274479208]
本稿では,大規模言語モデル(LLM)を訓練し,学生の正当性を最大化するチューター発話を生成する手法を提案する。
モデルにより生成された教師発話が,学生の正答率を著しく高めることを示す。
論文 参考訳(メタデータ) (2025-03-09T03:38:55Z) - Towards the Pedagogical Steering of Large Language Models for Tutoring: A Case Study with Modeling Productive Failure [36.83786872708736]
1対1の授業は、最も効果的な教育方法の1つである。
我々は、LSMプロンプトを最適化し、遷移グラフとして表される事前定義されたマルチターンチューリング計画に従うアルゴリズムであるStratLを開発した。
ケーススタディとして,先進的で効果的な学習設計であるProductive Failure (PF) に続く,高校数学のプロトタイプチューターを作成する。
論文 参考訳(メタデータ) (2024-10-03T16:15:41Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - Opportunities and Challenges in Neural Dialog Tutoring [54.07241332881601]
言語学習のための2つの対話学習データセットを用いて、様々な生成言語モデルを厳密に分析する。
現在のアプローチでは、制約のある学習シナリオでチューリングをモデル化できますが、制約の少ないシナリオではパフォーマンスが悪くなります。
人的品質評価では, モデルと接地木アノテーションの両方が, 同等のチュータリングの点で低い性能を示した。
論文 参考訳(メタデータ) (2023-01-24T11:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。