論文の概要: Towards Valid Student Simulation with Large Language Models
- arxiv url: http://arxiv.org/abs/2601.05473v1
- Date: Fri, 09 Jan 2026 02:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.811596
- Title: Towards Valid Student Simulation with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた学生の妥当性評価に向けて
- Authors: Zhihao Yuan, Yunze Xiao, Ming Li, Weihao Xuan, Richard Tong, Mona Diab, Tom Mitchell,
- Abstract要約: 学生シミュレーションを明示的疫状態仕様(ESS)によって規定される制約付き生成問題として再編成する。
さらに、行動目標とデプロイメントコンテキストに応じてシミュレーションされた学生システムをシミュレートする、ゴールバイ環境フレームワークも導入されている。
- 参考スコア(独自算出の注目度): 12.732686135613214
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents a conceptual and methodological framework for large language model (LLM) based student simulation in educational settings. The authors identify a core failure mode, termed the "competence paradox" in which broadly capable LLMs are asked to emulate partially knowledgeable learners, leading to unrealistic error patterns and learning dynamics. To address this, the paper reframes student simulation as a constrained generation problem governed by an explicit Epistemic State Specification (ESS), which defines what a simulated learner can access, how errors are structured, and how learner state evolves over time. The work further introduces a Goal-by-Environment framework to situate simulated student systems according to behavioral objectives and deployment contexts. Rather than proposing a new system or benchmark, the paper synthesizes prior literature, formalizes key design dimensions, and articulates open challenges related to validity, evaluation, and ethical risks. Overall, the paper argues for epistemic fidelity over surface realism as a prerequisite for using LLM-based simulated students as reliable scientific and pedagogical instruments.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)に基づく学生シミュレーションのための概念的,方法論的枠組みを提案する。
著者らは「コンピテンスパラドックス(competence paradox)」と呼ばれるコア障害モードを特定し、LLMは部分的に知識のある学習者をエミュレートするよう求められ、非現実的なエラーパターンや学習ダイナミクスをもたらす。
これを解決するために,本論文では,学生シミュレーションを明示的な疫学状態仕様(ESS)によって支配される制約付き生成問題として再編成し,シミュレーションされた学習者がどのようなアクセスが可能か,エラーがどのように構造化され,学習者が時間とともにどのように進化するかを定義する。
さらに、行動目標とデプロイメントコンテキストに応じてシミュレーションされた学生システムをシミュレートする、ゴールバイ環境フレームワークも導入されている。
論文は、新しいシステムやベンチマークを提案するのではなく、事前の文献を合成し、重要な設計次元を形式化し、妥当性、評価、倫理的リスクに関連するオープンな課題を明確にする。
この論文は、LLMをベースとしたシミュレーション学生を信頼性のある科学的・教育的な道具として使うための前提条件として、表面リアリズムに対する疫学的な忠実さを論じている。
関連論文リスト
- Simulating Students with Large Language Models: A Review of Architecture, Mechanisms, and Role Modelling in Education with Generative AI [0.8703455323398351]
大規模言語モデル(LLM)を用いた教育環境における学生の行動のシミュレートに関する研究のレビュー
LLMをベースとしたエージェントが学習者の古型をエミュレートし、指導的な入力に反応し、マルチエージェントの教室シナリオ内で相互作用する能力に関する現在の証拠を示す。
本稿では,カリキュラム開発,教育評価,教員養成におけるシステムの役割について検討する。
論文 参考訳(メタデータ) (2025-11-08T17:23:13Z) - The Imperfect Learner: Incorporating Developmental Trajectories in Memory-based Student Simulation [55.722188569369656]
本稿では,メモリベースの学生シミュレーションのための新しいフレームワークを提案する。
構造的知識表現を備えた階層記憶機構を通じて発達軌道を組み込む。
実際に,次世代科学標準に基づくカリキュラム・アライン・シミュレータを実装した。
論文 参考訳(メタデータ) (2025-11-08T08:05:43Z) - Integrating LLM in Agent-Based Social Simulation: Opportunities and Challenges [0.7739037410679168]
本稿では,人間の認知の重要な側面を再現する大規模言語モデルの能力に関する最近の知見をレビューする。
第2部はマルチエージェント・シミュレーション・フレームワークにおけるLLMの新しい応用について調査している。
この論文は、従来のエージェントベースモデリングプラットフォームにLLMを統合するハイブリッドアプローチを提唱することで締めくくっている。
論文 参考訳(メタデータ) (2025-07-25T15:15:35Z) - Information Science Principles of Machine Learning: A Causal Chain Meta-Framework Based on Formalized Information Mapping [7.299890614172539]
本研究は、機械学習における重要な課題、すなわち、統一的な形式的理論的枠組みの欠如と、モデル解釈可能性と倫理的安全性に関する基礎理論の欠如に対処する。
まず、一般的な機械学習段階における存在論的状態とキャリアマッピングを明確に定義し、形式的な情報モデルを構築する。
学習可能な述語と処理可能な述語を導入し、学習と処理機能を導入することにより、機械学習プロセスを管理する因果連鎖論理と制約法を解析する。
論文 参考訳(メタデータ) (2025-05-19T14:39:41Z) - Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - LLM-based Cognitive Models of Students with Misconceptions [55.29525439159345]
本稿では,この2つの要件を満たすためにLLM(Large Language Models)を命令調整できるかどうかを検討する。
真正な学生ソリューションパターンを反映したデータセットを生成する新しいPythonライブラリであるMalAlgoPyを紹介する。
我々の洞察は、AIに基づく学生モデルの理解を高め、効果的な適応学習システムへの道を開く。
論文 参考訳(メタデータ) (2024-10-16T06:51:09Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。