論文の概要: Simulating Students with Large Language Models: A Review of Architecture, Mechanisms, and Role Modelling in Education with Generative AI
- arxiv url: http://arxiv.org/abs/2511.06078v1
- Date: Sat, 08 Nov 2025 17:23:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.744239
- Title: Simulating Students with Large Language Models: A Review of Architecture, Mechanisms, and Role Modelling in Education with Generative AI
- Title(参考訳): 大規模言語モデルを用いた学生のシミュレーション:生成型AIを用いた教育における建築・メカニズム・役割モデリングの概観
- Authors: Luis Marquez-Carpintero, Alberto Lopez-Sellers, Miguel Cazorla,
- Abstract要約: 大規模言語モデル(LLM)を用いた教育環境における学生の行動のシミュレートに関する研究のレビュー
LLMをベースとしたエージェントが学習者の古型をエミュレートし、指導的な入力に反応し、マルチエージェントの教室シナリオ内で相互作用する能力に関する現在の証拠を示す。
本稿では,カリキュラム開発,教育評価,教員養成におけるシステムの役割について検討する。
- 参考スコア(独自算出の注目度): 0.8703455323398351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulated Students offer a valuable methodological framework for evaluating pedagogical approaches and modelling diverse learner profiles, tasks which are otherwise challenging to undertake systematically in real-world settings. Recent research has increasingly focused on developing such simulated agents to capture a range of learning styles, cognitive development pathways, and social behaviours. Among contemporary simulation techniques, the integration of large language models (LLMs) into educational research has emerged as a particularly versatile and scalable paradigm. LLMs afford a high degree of linguistic realism and behavioural adaptability, enabling agents to approximate cognitive processes and engage in contextually appropriate pedagogical dialogues. This paper presents a thematic review of empirical and methodological studies utilising LLMs to simulate student behaviour across educational environments. We synthesise current evidence on the capacity of LLM-based agents to emulate learner archetypes, respond to instructional inputs, and interact within multi-agent classroom scenarios. Furthermore, we examine the implications of such systems for curriculum development, instructional evaluation, and teacher training. While LLMs surpass rule-based systems in natural language generation and situational flexibility, ongoing concerns persist regarding algorithmic bias, evaluation reliability, and alignment with educational objectives. The review identifies existing technological and methodological gaps and proposes future research directions for integrating generative AI into adaptive learning systems and instructional design.
- Abstract(参考訳): シミュレートされた学生は、教育的アプローチを評価し、多様な学習者のプロファイルをモデル化するための貴重な方法論的枠組みを提供する。
近年の研究では、様々な学習スタイル、認知発達経路、社会的行動を把握するためのシミュレーションエージェントの開発に焦点が当てられている。
現代のシミュレーション技術の中で、大きな言語モデル(LLM)を教育研究に統合することは、特に汎用的でスケーラブルなパラダイムとして現れている。
LLMは高度な言語リアリズムと行動適応性を持ち、エージェントは認知過程を近似し、文脈的に適切な教育対話を行うことができる。
本稿では,LLMを用いた実験・方法論研究のテーマレビューを行い,学生の学習環境における行動のシミュレートについて述べる。
我々は,学習者の古型をエミュレートし,指導的な入力に応答し,マルチエージェントの教室シナリオ内で対話するLLMエージェントの能力に関する現在の証拠を合成する。
さらに,カリキュラム開発,教育評価,教員養成におけるシステムの役割について検討した。
LLMは自然言語生成と状況柔軟性においてルールベースのシステムを上回るが、アルゴリズムバイアス、評価信頼性、教育目的との整合性に関する継続的な懸念が続いている。
このレビューでは、既存の技術と方法論のギャップを特定し、生成AIを適応学習システムと教育設計に統合するための今後の研究方向を提案する。
関連論文リスト
- The Imperfect Learner: Incorporating Developmental Trajectories in Memory-based Student Simulation [55.722188569369656]
本稿では,メモリベースの学生シミュレーションのための新しいフレームワークを提案する。
構造的知識表現を備えた階層記憶機構を通じて発達軌道を組み込む。
実際に,次世代科学標準に基づくカリキュラム・アライン・シミュレータを実装した。
論文 参考訳(メタデータ) (2025-11-08T08:05:43Z) - Generative Large Language Models for Knowledge Representation: A Systematic Review of Concept Map Generation [1.163826615891678]
生成型大規模言語モデル(LLM)の台頭により,概念地図による知識表現を自動化する新たな機会が開かれた。
本総説では, LLM を用いた概念マップ生成に関する新たな研究の体系化について述べる。
人間のループシステム、弱い教師付き学習モデル、微調整されたドメイン固有LLM、素早いエンジニアリングによる事前訓練されたLLM、知識ベースを統合するハイブリッドシステム、シンボルと統計ツールを組み合わせたモジュラーフレームワークである。
論文 参考訳(メタデータ) (2025-09-18T02:36:54Z) - Designing LMS and Instructional Strategies for Integrating Generative-Conversational AI [0.0]
本研究では,AIを活用した学習管理システムを構築するための構造化フレームワークを提案する。
生成AIと会話AIを統合し、適応的でインタラクティブで学習者中心の教育をサポートする。
論文 参考訳(メタデータ) (2025-08-31T06:01:50Z) - A Review of Developmental Interpretability in Large Language Models [0.0]
本総説では,大規模言語モデルの発達的解釈可能性について概説する。
我々は、トレーニングされたモデルの静的なポストホック解析から、トレーニングプロセス自体の動的調査まで、フィールドの進化をグラフ化する。
論文 参考訳(メタデータ) (2025-08-19T18:19:16Z) - Continual Learning for Generative AI: From LLMs to MLLMs and Beyond [56.29231194002407]
本稿では,主流生成型AIモデルに対する連続学習手法の総合的な調査を行う。
これらのアプローチをアーキテクチャベース、正規化ベース、リプレイベースという3つのパラダイムに分類する。
我々は、トレーニング目標、ベンチマーク、コアバックボーンを含む、異なる生成モデルに対する連続的な学習設定を分析する。
論文 参考訳(メタデータ) (2025-06-16T02:27:25Z) - Investigating Pedagogical Teacher and Student LLM Agents: Genetic Adaptation Meets Retrieval Augmented Generation Across Learning Style [16.985943868964394]
効果的な教育には、学生の多様な認知的・行動的プロファイルに対応するために教育戦略を適用する必要がある。
本稿では,異種学生エージェントを自己最適化型教師エージェントと統合する新しいシミュレーションフレームワークを提案する。
本研究は,データ駆動環境下での人間教育者を訓練するためのテストベッドの提供を目的として,LLMによるシミュレーションの可能性を強調した。
論文 参考訳(メタデータ) (2025-05-25T14:45:35Z) - When LLMs Learn to be Students: The SOEI Framework for Modeling and Evaluating Virtual Student Agents in Educational Interaction [12.070907646464537]
教室シナリオにおける人格対応型仮想学生エージェント(LVSA)の構築と評価のためのSOEIフレームワークを提案する。
LoRAファインチューニングとエキスパートインフォームドプロンプト設計により,5つのLVSAをBig Five特性に基づいて生成する。
その結果,(1)LLMをベースとした学生エージェントのための教育的,心理的に基盤とした生成パイプライン,(2)行動リアリズムのためのハイブリッドでスケーラブルな評価フレームワーク,(3)LVSAsの教育的有用性に関する実証的な知見が得られた。
論文 参考訳(メタデータ) (2024-10-21T07:18:24Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。