論文の概要: Simulated Students in Tutoring Dialogues: Substance or Illusion?
- arxiv url: http://arxiv.org/abs/2601.04025v1
- Date: Wed, 07 Jan 2026 15:44:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.212184
- Title: Simulated Students in Tutoring Dialogues: Substance or Illusion?
- Title(参考訳): 教師対話におけるシミュレートされた学生--素材とイリュージョン?
- Authors: Alexander Scarlatos, Jaewook Lee, Simon Woodhead, Andrew Lan,
- Abstract要約: 本研究は,学生シミュレーションの課題を定義し,言語的,行動的,認知的な側面にまたがる評価指標のセットを提案し,これらの指標について幅広い学生シミュレーション手法をベンチマークする。
実世界の数学学習対話データセットを実験し、自動評価結果と人的評価結果の両方で、学生シミュレーションの促進戦略が不十分であることを示す。
- 参考スコア(独自算出の注目度): 45.40380629269521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in large language models (LLMs) enable many new innovations in education. However, evaluating the effectiveness of new technology requires real students, which is time-consuming and hard to scale up. Therefore, many recent works on LLM-powered tutoring solutions have used simulated students for both training and evaluation, often via simple prompting. Surprisingly, little work has been done to ensure or even measure the quality of simulated students. In this work, we formally define the student simulation task, propose a set of evaluation metrics that span linguistic, behavioral, and cognitive aspects, and benchmark a wide range of student simulation methods on these metrics. We experiment on a real-world math tutoring dialogue dataset, where both automated and human evaluation results show that prompting strategies for student simulation perform poorly; supervised fine-tuning and preference optimization yield much better but still limited performance, motivating future work on this challenging task.
- Abstract(参考訳): 大規模言語モデル(LLM)の進歩は、教育における多くの新しいイノベーションを可能にします。
しかし、新しい技術の有効性を評価するには、実際の学生が必要である。
したがって、近年のLLMを活用したチュータリングソリューションに関する多くの研究は、簡単なプロンプトを通して、訓練と評価の両方にシミュレーションされた学生を用いている。
驚くべきことに、シミュレートされた学生の質を保証したり、測定したりする作業はほとんど行われていない。
本研究では,学生シミュレーションの課題を正式に定義し,言語的,行動的,認知的な側面にまたがる評価指標のセットを提案し,これらの指標について幅広い学生シミュレーション手法をベンチマークする。
教師付き微調整と選好最適化により、より優れた結果が得られたが、まだ性能が限られており、この課題に対する今後の取り組みを動機付けている。
関連論文リスト
- UCO: A Multi-Turn Interactive Reinforcement Learning Method for Adaptive Teaching with Large Language Models [59.693733170193944]
大規模言語モデル(LLM)は、教育環境において、回答提供者からインテリジェントな家庭教師へとシフトしている。
最近の強化学習アプローチはこの制限に対処するが、2つの重要な課題に直面している。
これらの課題に対処するために一方向認知最適化法(UCO)を提案する。
論文 参考訳(メタデータ) (2025-11-12T01:27:02Z) - SimBench: Benchmarking the Ability of Large Language Models to Simulate Human Behaviors [58.87134689752605]
我々は,LLMシミュレーションの堅牢で再現可能な科学のための,最初の大規模標準ベンチマークであるSimBenchを紹介する。
現在、最高のLLMでさえシミュレーション能力が限られ(スコア: 40.80/100)、性能はモデルサイズと対数的にスケールする。
シミュレーション能力は、深い知識集約的推論と最も強く相関していることを示す。
論文 参考訳(メタデータ) (2025-10-20T13:14:38Z) - Embracing Imperfection: Simulating Students with Diverse Cognitive Levels Using LLM-based Agents [36.704574105201864]
大規模言語モデル(LLM)は教育に革命をもたらしており、LLMベースのエージェントは学生の振る舞いをシミュレートする上で重要な役割を果たしている。
学生シミュレーションにおける大きな課題は、様々な認知レベルにおける学生の多様な学習パターンをモデル化することである。
論文 参考訳(メタデータ) (2025-05-26T13:48:49Z) - Exploring LLM-based Student Simulation for Metacognitive Cultivation [33.346260553878984]
高品質なシミュレーション学生エージェントを自動生成・フィルタリングするパイプラインを提案する。
我々の研究は、パーソナライズされた学習と教育アセスメントにおける幅広い応用の道を開く。
論文 参考訳(メタデータ) (2025-02-17T11:12:47Z) - Toward In-Context Teaching: Adapting Examples to Students' Misconceptions [54.82965010592045]
本稿ではAdapTと呼ばれる一連のモデルと評価手法を紹介する。
AToMは、学生の過去の信念を共同で推論し、将来の信念の正しさを最適化する適応教育の新しい確率論的モデルである。
本研究は,適応型学習課題の難しさと,それを解決するための学習適応モデルの可能性を両立させるものである。
論文 参考訳(メタデータ) (2024-05-07T17:05:27Z) - MathVC: An LLM-Simulated Multi-Character Virtual Classroom for Mathematics Education [12.364513740761739]
協調問題解決(CPS)は数学教育において不可欠であり、アイデアの交換を通じてより深い学習を促進する。
近年のLarge Language Models (LLMs) の進歩は、数学教育において CPS を強化するための有望な道を提供する。
数学におけるCPSを促進するために,マルチパーソナライズされた仮想教室プラットフォームであるMathVCを設計・開発した。
論文 参考訳(メタデータ) (2024-04-10T03:35:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。