論文の概要: Simulated Students in Tutoring Dialogues: Substance or Illusion?
- arxiv url: http://arxiv.org/abs/2601.04025v1
- Date: Wed, 07 Jan 2026 15:44:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.212184
- Title: Simulated Students in Tutoring Dialogues: Substance or Illusion?
- Title(参考訳): 教師対話におけるシミュレートされた学生--素材とイリュージョン?
- Authors: Alexander Scarlatos, Jaewook Lee, Simon Woodhead, Andrew Lan,
- Abstract要約: 本研究は,学生シミュレーションの課題を定義し,言語的,行動的,認知的な側面にまたがる評価指標のセットを提案し,これらの指標について幅広い学生シミュレーション手法をベンチマークする。
実世界の数学学習対話データセットを実験し、自動評価結果と人的評価結果の両方で、学生シミュレーションの促進戦略が不十分であることを示す。
- 参考スコア(独自算出の注目度): 45.40380629269521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in large language models (LLMs) enable many new innovations in education. However, evaluating the effectiveness of new technology requires real students, which is time-consuming and hard to scale up. Therefore, many recent works on LLM-powered tutoring solutions have used simulated students for both training and evaluation, often via simple prompting. Surprisingly, little work has been done to ensure or even measure the quality of simulated students. In this work, we formally define the student simulation task, propose a set of evaluation metrics that span linguistic, behavioral, and cognitive aspects, and benchmark a wide range of student simulation methods on these metrics. We experiment on a real-world math tutoring dialogue dataset, where both automated and human evaluation results show that prompting strategies for student simulation perform poorly; supervised fine-tuning and preference optimization yield much better but still limited performance, motivating future work on this challenging task.
- Abstract(参考訳): 大規模言語モデル(LLM)の進歩は、教育における多くの新しいイノベーションを可能にします。
しかし、新しい技術の有効性を評価するには、実際の学生が必要である。
したがって、近年のLLMを活用したチュータリングソリューションに関する多くの研究は、簡単なプロンプトを通して、訓練と評価の両方にシミュレーションされた学生を用いている。
驚くべきことに、シミュレートされた学生の質を保証したり、測定したりする作業はほとんど行われていない。
本研究では,学生シミュレーションの課題を正式に定義し,言語的,行動的,認知的な側面にまたがる評価指標のセットを提案し,これらの指標について幅広い学生シミュレーション手法をベンチマークする。
教師付き微調整と選好最適化により、より優れた結果が得られたが、まだ性能が限られており、この課題に対する今後の取り組みを動機付けている。
関連論文リスト
- D-REX: Differentiable Real-to-Sim-to-Real Engine for Learning Dexterous Grasping [66.22412592525369]
本稿では,ガウスのSplat表現を生かした実--sim-to-realエンジンを導入し,実-sim-to-realエンジンについて述べる。
提案エンジンは, 各種物体の形状と質量値のマス識別において, 高精度かつロバストな性能を実現していることを示す。
これらの最適化された質量値は、力覚的なポリシー学習を促進し、オブジェクトの把握において優れた、高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-03-01T15:32:04Z) - UCO: A Multi-Turn Interactive Reinforcement Learning Method for Adaptive Teaching with Large Language Models [59.693733170193944]
大規模言語モデル(LLM)は、教育環境において、回答提供者からインテリジェントな家庭教師へとシフトしている。
最近の強化学習アプローチはこの制限に対処するが、2つの重要な課題に直面している。
これらの課題に対処するために一方向認知最適化法(UCO)を提案する。
論文 参考訳(メタデータ) (2025-11-12T01:27:02Z) - SimBench: Benchmarking the Ability of Large Language Models to Simulate Human Behaviors [58.87134689752605]
我々は,LLMシミュレーションの堅牢で再現可能な科学のための,最初の大規模標準ベンチマークであるSimBenchを紹介する。
現在、最高のLLMでさえシミュレーション能力が限られ(スコア: 40.80/100)、性能はモデルサイズと対数的にスケールする。
シミュレーション能力は、深い知識集約的推論と最も強く相関していることを示す。
論文 参考訳(メタデータ) (2025-10-20T13:14:38Z) - Embracing Imperfection: Simulating Students with Diverse Cognitive Levels Using LLM-based Agents [36.704574105201864]
大規模言語モデル(LLM)は教育に革命をもたらしており、LLMベースのエージェントは学生の振る舞いをシミュレートする上で重要な役割を果たしている。
学生シミュレーションにおける大きな課題は、様々な認知レベルにおける学生の多様な学習パターンをモデル化することである。
論文 参考訳(メタデータ) (2025-05-26T13:48:49Z) - MathEDU: Towards Adaptive Feedback for Student Mathematical Problem-Solving [3.2962799070467432]
本稿では,大規模言語モデル(LLM)の学習者の数学的問題解決プロセスの評価と適応的なフィードバックを提供する能力について考察する。
モデルが学生の事前回答履歴にアクセス可能なシナリオと、コールドスタートコンテキストをシミュレートするシナリオの2つについて、パーソナライズされた学習を支援するモデルの能力を評価する。
論文 参考訳(メタデータ) (2025-05-23T15:59:39Z) - Can LLMs Simulate Personas with Reversed Performance? A Benchmark for Counterfactual Instruction Following [12.145213376813155]
大規模言語モデル(LLM)は、仮想環境におけるペルソナのシミュレートに広く使われている。
現状のLLMでさえ、逆性能のペルソナをシミュレートできないことを示す。
論文 参考訳(メタデータ) (2025-04-08T22:00:32Z) - Exploring LLM-based Student Simulation for Metacognitive Cultivation [33.346260553878984]
高品質なシミュレーション学生エージェントを自動生成・フィルタリングするパイプラインを提案する。
我々の研究は、パーソナライズされた学習と教育アセスメントにおける幅広い応用の道を開く。
論文 参考訳(メタデータ) (2025-02-17T11:12:47Z) - Toward In-Context Teaching: Adapting Examples to Students' Misconceptions [54.82965010592045]
本稿ではAdapTと呼ばれる一連のモデルと評価手法を紹介する。
AToMは、学生の過去の信念を共同で推論し、将来の信念の正しさを最適化する適応教育の新しい確率論的モデルである。
本研究は,適応型学習課題の難しさと,それを解決するための学習適応モデルの可能性を両立させるものである。
論文 参考訳(メタデータ) (2024-05-07T17:05:27Z) - MathVC: An LLM-Simulated Multi-Character Virtual Classroom for Mathematics Education [12.364513740761739]
協調問題解決(CPS)は数学教育において不可欠であり、アイデアの交換を通じてより深い学習を促進する。
近年のLarge Language Models (LLMs) の進歩は、数学教育において CPS を強化するための有望な道を提供する。
数学におけるCPSを促進するために,マルチパーソナライズされた仮想教室プラットフォームであるMathVCを設計・開発した。
論文 参考訳(メタデータ) (2024-04-10T03:35:51Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - RLTutor: Reinforcement Learning Based Adaptive Tutoring System by
Modeling Virtual Student with Fewer Interactions [10.34673089426247]
本稿では,学生の仮想モデルを構築し,指導戦略を最適化する枠組みを提案する。
この結果は,eラーニングシステムにおける理論的指導最適化と実践的応用のバッファとして機能する。
論文 参考訳(メタデータ) (2021-07-31T15:42:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。