論文の概要: Simulating Human-Like Learning Dynamics with LLM-Empowered Agents
- arxiv url: http://arxiv.org/abs/2508.05622v1
- Date: Thu, 07 Aug 2025 17:57:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.984423
- Title: Simulating Human-Like Learning Dynamics with LLM-Empowered Agents
- Title(参考訳): LLMエージェントを用いたヒューマンライクな学習ダイナミクスのシミュレーション
- Authors: Yu Yuan, Lili Zhao, Wei Chen, Guangting Zheng, Kai Zhang, Mengdi Zhang, Qi Liu,
- Abstract要約: 本稿では,LearnerAgentについて紹介する。LearnerAgentはLarge Language Models(LLM)に基づく,現実的な教育環境をシミュレートする新しいマルチエージェントフレームワークである。
我々は,Deep, Surface, Lazy-asなどの心理的基盤を持つ学習者やペルソナのない一般学習者を構築し,LLMのデフォルト動作を検査する。
週毎の知識獲得,月毎の戦略的選択,定期的なテスト,ペアインタラクションを通じて,全年にわたる個人学習者の動的学習進捗を追跡することができる。
- 参考スコア(独自算出の注目度): 14.945276470541364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Capturing human learning behavior based on deep learning methods has become a major research focus in both psychology and intelligent systems. Recent approaches rely on controlled experiments or rule-based models to explore cognitive processes. However, they struggle to capture learning dynamics, track progress over time, or provide explainability. To address these challenges, we introduce LearnerAgent, a novel multi-agent framework based on Large Language Models (LLMs) to simulate a realistic teaching environment. To explore human-like learning dynamics, we construct learners with psychologically grounded profiles-such as Deep, Surface, and Lazy-as well as a persona-free General Learner to inspect the base LLM's default behavior. Through weekly knowledge acquisition, monthly strategic choices, periodic tests, and peer interaction, we can track the dynamic learning progress of individual learners over a full-year journey. Our findings are fourfold: 1) Longitudinal analysis reveals that only Deep Learner achieves sustained cognitive growth. Our specially designed "trap questions" effectively diagnose Surface Learner's shallow knowledge. 2) The behavioral and cognitive patterns of distinct learners align closely with their psychological profiles. 3) Learners' self-concept scores evolve realistically, with the General Learner developing surprisingly high self-efficacy despite its cognitive limitations. 4) Critically, the default profile of base LLM is a "diligent but brittle Surface Learner"-an agent that mimics the behaviors of a good student but lacks true, generalizable understanding. Extensive simulation experiments demonstrate that LearnerAgent aligns well with real scenarios, yielding more insightful findings about LLMs' behavior.
- Abstract(参考訳): 深層学習法に基づく人間の学習行動のキャプチャは、心理学と知的システムの両方において大きな研究の焦点となっている。
近年のアプローチは、認知過程を研究するために、制御された実験やルールベースのモデルに依存している。
しかし、彼らは学習のダイナミクスを捉えたり、時間とともに進捗を追跡したり、説明可能性を提供するのに苦労しています。
これらの課題に対処するために,LearnerAgentを紹介した。LearnerAgentは,大規模言語モデル(LLM)に基づく,現実的な教育環境をシミュレートする新しいマルチエージェントフレームワークである。
人間の学習力学を探索するために,Deep, Surface, Lazy-asなどの心理的基盤を持つ学習者,およびペルソナフリーの一般学習者を構築し,LLMの既定動作を検査する。
週毎の知識獲得,月毎の戦略的選択,定期的なテスト,ペアインタラクションを通じて,全年にわたる個人学習者の動的学習進捗を追跡することができる。
私たちの発見は4倍です。
1) 縦断的分析により, 深層学習者だけが持続的な認知的成長を達成することが明らかとなった。
を設計し、Surface Learnerの浅い知識を効果的に診断した。
2) 異なる学習者の行動・認知パターンは, 心理学的特徴と密接に一致している。
3)学習者の自己概念スコアは現実的に進化し,認知的限界にもかかわらず,一般学習者は驚くほど高い自己効力を発揮した。
4) 批判的に言えば,LLMの既定プロファイルは,良き学生の振る舞いを模倣するエージェントであると同時に,真で一般化可能な理解に欠ける「多言語だが脆弱な表面学習者」である。
大規模なシミュレーション実験により、LearnerAgentは実際のシナリオとよく一致し、LLMの振る舞いに関するより洞察力のある発見をもたらすことが示されている。
関連論文リスト
- Unveiling the Learning Mind of Language Models: A Cognitive Framework and Empirical Study [50.065744358362345]
大規模言語モデル(LLM)は、数学、コーディング、推論といったタスクにまたがる印象的な機能を示している。
しかし、彼らの学習能力は、動的環境に適応し、新しい知識を得るのに不可欠であり、まだ過小評価されていない。
論文 参考訳(メタデータ) (2025-06-16T13:24:50Z) - If an LLM Were a Character, Would It Know Its Own Story? Evaluating Lifelong Learning in LLMs [55.8331366739144]
大規模言語モデル(LLM)における生涯学習評価のためのベンチマークであるLIFESTATE-BENCHを紹介する。
我々の事実チェック評価は、パラメトリックと非パラメトリックの両方のアプローチで、モデルの自己認識、エピソードメモリ検索、関係追跡を探索する。
論文 参考訳(メタデータ) (2025-03-30T16:50:57Z) - Refine Knowledge of Large Language Models via Adaptive Contrastive Learning [54.61213933999464]
方法の主流は、大規模言語モデルの知識表現を最適化することで幻覚を減らすことである。
知識を精錬するモデルのプロセスは、人間の学習方法から大きな恩恵を受けることができると私たちは信じています。
人間の学習過程を模倣することで,適応的コントラスト学習戦略を設計する。
論文 参考訳(メタデータ) (2025-02-11T02:19:13Z) - BIG5-CHAT: Shaping LLM Personalities Through Training on Human-Grounded Data [28.900987544062257]
BIG5-CHATは、人間が言語で人格を表現する方法のモデルを構築するために設計された10万の対話を含む大規模なデータセットである。
提案手法は,BFIやIPIP-NEOなどの人格評価に優れ,特徴相関は人的データとより密に一致している。
実験の結果,高良性,高良性,低外転,低神経障害を訓練したモデルでは,推論タスクの性能が向上することが判明した。
論文 参考訳(メタデータ) (2024-10-21T20:32:27Z) - EduAgent: Generative Student Agents in Learning [15.215078619481732]
オンライン教育における学生シミュレーションは,様々な背景を持つ学生の動的学習行動に対処するために重要である。
ディープラーニングに基づく既存のシミュレーションモデルでは、教育的文脈における事前知識が欠如しているため、大規模なトレーニングデータが必要である。
本研究は,認知的事前知識を取り入れた新しい生成エージェントフレームワークであるEduAgentを提案する。
論文 参考訳(メタデータ) (2024-03-23T18:19:17Z) - Empowering Large Language Model Agents through Action Learning [85.39581419680755]
大規模言語モデル(LLM)エージェントは最近ますます関心を集めているが、試行錯誤から学ぶ能力は限られている。
我々は、経験から新しい行動を学ぶ能力は、LLMエージェントの学習の進歩に欠かせないものであると論じる。
我々はPython関数の形式でアクションを作成し改善するための反復学習戦略を備えたフレームワークLearningActを紹介した。
論文 参考訳(メタデータ) (2024-02-24T13:13:04Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Thinking Fast and Slow in Large Language Models [0.08057006406834465]
大規模言語モデル(LLM)は、現在、人間のコミュニケーションと日常の生活を結び付けるAIシステムの最前線にある。
本研究では, GPT-3 のような LLM は人間の直感に類似した行動を示し,それに伴う認知的誤りを示す。
論文 参考訳(メタデータ) (2022-12-10T05:07:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。