論文の概要: Scaling Laws for Educational AI Agents
- arxiv url: http://arxiv.org/abs/2603.11709v1
- Date: Thu, 12 Mar 2026 09:14:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.987318
- Title: Scaling Laws for Educational AI Agents
- Title(参考訳): 教育AIエージェントのスケーリング法則
- Authors: Mengsong Wu, Hao Hao, Shuzhen Bi, Keqian Li, Wentao Liu, Siyu Song, Hongbo Zhao, Aimin Zhou,
- Abstract要約: EduClawは、エージェントスケーリング法を運用するプロファイル駆動のマルチエージェントプラットフォームである。
我々の経験的観察から, 教育エージェントのパフォーマンスは, プロファイル構造的豊かさとともに予測可能でスケールすることが示唆された。
今後の方向性として、ツールスケーリングとスキルスケーリングという2つのスケーリング軸を特定します。
- 参考スコア(独自算出の注目度): 20.467661664708086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While scaling laws for Large Language Models (LLMs) have been extensively studied along dimensions of model parameters, training data, and compute, the scaling behavior of LLM-based educational agents remains unexplored. We propose that educational agent capability scales not merely with the underlying model size, but through structured dimensions that we collectively term the Agent Scaling Law: role definition clarity, skill depth, tool completeness, runtime capability, and educator expertise injection. Central to this framework is AgentProfile, a structured JSON-based specification that serves as the mechanism enabling systematic capability growth of educational agents. We present EduClaw, a profile-driven multi-agent platform that operationalizes this scaling law, demonstrating its effectiveness through the construction and deployment of 330+ educational agent profiles encompassing 1,100+ skill modules across K-12 subjects. Our empirical observations suggest that educational agent performance scales predictably with profile structural richness. We identify two complementary scaling axes -- Tool Scaling and Skill Scaling -- as future directions, arguing that the path to more capable educational AI lies not solely in larger models, but in stronger structured capability systems.
- Abstract(参考訳): 大規模言語モデル(LLM)のスケーリング法則は、モデルパラメータ、トレーニングデータ、計算の次元に沿って広く研究されているが、LLMベースの教育エージェントのスケーリングの挙動は未解明のままである。
学習エージェントの能力は、基礎となるモデルサイズだけでなく、私たちがまとめて「エージェントスケーリング法」と呼ぶ、役割定義の明確さ、スキルの深さ、ツールの完全性、実行能力、教育者の専門知識の注入を通じてスケールすることを提案する。
このフレームワークの中心にあるのは、JSONベースの構造化仕様であるAgentProfileである。
我々は,このスケーリング法を運用するプロファイル駆動型マルチエージェントプラットフォームであるEduClawを紹介し,K-12被験者を対象とした1,100以上のスキルモジュールを含む330以上の教育エージェントプロファイルの構築と展開を通じて,その効果を実証する。
我々の経験的観察から, 教育エージェントのパフォーマンスは, プロファイル構造的豊かさとともに予測可能でスケールすることが示唆された。
ツールスケーリングとスキルスケーリングという2つの補完的なスケーリング軸を将来の方向性として定義し、より有能なAIへのパスは、より大きなモデルだけでなく、より強力な構造化された機能システムにある、と論じています。
関連論文リスト
- Agent Skill Framework: Perspectives on the Potential of Small Language Models in Industrial Environments [14.079091139464175]
この研究は、エージェントスキルプロセスの形式的な数学的定義を導入し、その後、様々な大きさの言語モデルの体系的な評価を行った。
その結果、小型モデルは信頼性の高いスキル選択に苦しむ一方で、中程度のサイズのSLM(約12B~30B)はエージェントスキルアプローチから大きく恩恵を受けることがわかった。
論文 参考訳(メタデータ) (2026-02-18T17:52:17Z) - Youtu-LLM: Unlocking the Native Agentic Potential for Lightweight Large Language Models [78.73992315826035]
ネイティブエージェントインテリジェンスと高い計算効率を調和させる軽量言語モデルであるYoutu-LLMを紹介する。
Youtu-LLMは、スクラッチから体系的に推論と計画能力の育成まで事前訓練されている。
論文 参考訳(メタデータ) (2025-12-31T04:25:11Z) - Scaling DRL for Decision Making: A Survey on Data, Network, and Training Budget Strategies [66.83950068218033]
スケーリング法則は、モデルのパラメータとトレーニングデータによって学習のパフォーマンスが向上することを示している。
性能向上の可能性にもかかわらず、スケーリング法則を深層強化学習に統合することは、完全には実現されていない。
本稿では,データ,ネットワーク,トレーニング予算という3次元のスケーリング戦略を体系的に分析することによって,このギャップに対処する。
論文 参考訳(メタデータ) (2025-08-05T08:03:12Z) - Scaling Laws for Pre-training Agents and World Models [22.701210075508147]
エンボディエージェントの性能は、モデルパラメータ、データセットサイズ、計算量を増やして改善されている。
本稿では,これらの課題におけるスケールの役割を,より正確に評価する。
論文 参考訳(メタデータ) (2024-11-07T04:57:40Z) - Mixtures of Experts Unlock Parameter Scaling for Deep RL [54.26191237981469]
本稿では,Mixture-of-Expert(MoE)モジュールを値ベースネットワークに組み込むことで,パラメータスケーラブルなモデルが得られることを示す。
この研究は、強化学習のためのスケーリング法則の開発に関する強力な実証的証拠を提供する。
論文 参考訳(メタデータ) (2024-02-13T17:18:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。