論文の概要: Optimal Learning Rate Schedule for Balancing Effort and Performance
- arxiv url: http://arxiv.org/abs/2601.07830v1
- Date: Mon, 12 Jan 2026 18:59:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.82918
- Title: Optimal Learning Rate Schedule for Balancing Effort and Performance
- Title(参考訳): 努力とパフォーマンスのバランスをとるための最適学習率スケジュール
- Authors: Valentina Njaradi, Rodrigo Carrasco-Davis, Peter E. Latham, Andrew Saxe,
- Abstract要約: 効果的に学習する方法を学ぶことは、生物学的エージェントにとって根本的な課題であり、人工エージェントに対する関心が高まっている。
本稿では,学習コストを増大させながら累積性能を最大化する最適制御プロセスとして,この問題を形式化する規範的フレームワークを提案する。
提案手法は,従来の学習体験を再現することで,必要な性能期待値に近似できることを示す。
- 参考スコア(独自算出の注目度): 4.693715072095583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning how to learn efficiently is a fundamental challenge for biological agents and a growing concern for artificial ones. To learn effectively, an agent must regulate its learning speed, balancing the benefits of rapid improvement against the costs of effort, instability, or resource use. We introduce a normative framework that formalizes this problem as an optimal control process in which the agent maximizes cumulative performance while incurring a cost of learning. From this objective, we derive a closed-form solution for the optimal learning rate, which has the form of a closed-loop controller that depends only on the agent's current and expected future performance. Under mild assumptions, this solution generalizes across tasks and architectures and reproduces numerically optimized schedules in simulations. In simple learning models, we can mathematically analyze how agent and task parameters shape learning-rate scheduling as an open-loop control solution. Because the optimal policy depends on expectations of future performance, the framework predicts how overconfidence or underconfidence influence engagement and persistence, linking the control of learning speed to theories of self-regulated learning. We further show how a simple episodic memory mechanism can approximate the required performance expectations by recalling similar past learning experiences, providing a biologically plausible route to near-optimal behaviour. Together, these results provide a normative and biologically plausible account of learning speed control, linking self-regulated learning, effort allocation, and episodic memory estimation within a unified and tractable mathematical framework.
- Abstract(参考訳): 効果的に学習する方法を学ぶことは、生物学的エージェントにとって根本的な課題であり、人工エージェントに対する関心が高まっている。
効果的に学習するためには、エージェントは学習速度を規制し、努力のコスト、不安定性、リソース使用に対する迅速な改善の利点をバランスさせなければならない。
本稿では,学習コストを増大させながら累積性能を最大化する最適制御プロセスとして,この問題を形式化する規範的フレームワークを提案する。
この目的から,エージェントの現在および将来の性能にのみ依存するクローズドループコントローラの形状を持つ,最適学習率のためのクローズドフォームソリューションを導出する。
軽微な仮定の下で、この解はタスクやアーキテクチャをまたいで一般化し、シミュレーションで数値的に最適化されたスケジュールを再現する。
簡単な学習モデルでは,エージェントとタスクパラメータがオープンループ制御ソリューションとして学習率スケジューリングをどのように形成するかを数学的に解析することができる。
このフレームワークは,学習速度の制御を自己統制学習の理論と結び付けることによって,自信や自信の過大さがエンゲージメントと永続性にどのように影響するかを予測する。
さらに、簡単なエピソード記憶機構が、類似した過去の学習経験を思い出し、生物学的に最適に近い行動への経路を提供することによって、要求される性能の期待をいかに近似するかを示す。
これらの結果は、学習速度制御の規範的かつ生物学的に妥当な説明、自己制御学習のリンク、努力の割り当て、および統合可能かつ抽出可能な数学的枠組みにおけるエピソードメモリ推定を提供する。
関連論文リスト
- Dynamic Learning Rate Scheduling based on Loss Changes Leads to Faster Convergence [2.1665689529884697]
emphGreedyLRは、トレーニング中に現在の損失に基づいて学習率を適応的に調整する新しいスケジューラである。
提案手法は, 精度, 速度, 収束の点で, 最先端のスケジューラよりも優れている。
論文 参考訳(メタデータ) (2025-12-16T16:03:52Z) - CurES: From Gradient Analysis to Efficient Curriculum Learning for Reasoning LLMs [53.749193998004166]
カリキュラム学習は,大規模言語モデルの学習効率を高める上で重要な役割を担っている。
収束を加速し,計算オーバーヘッドを最小限に抑えるためにベイズ後続推定を用いた効率的な学習法であるCurESを提案する。
論文 参考訳(メタデータ) (2025-10-01T15:41:27Z) - ActivePusher: Active Learning and Planning with Residual Physics for Nonprehensile Manipulation [1.2425910171551517]
学習されたダイナミックスモデルによるプランニングは、多目的な現実世界の操作に対して有望なアプローチを提供する。
残差物理モデリングと不確実性に基づく能動学習を組み合わせたフレームワークであるActivePusherを提案する。
シミュレーションと実環境の両方でアプローチを評価し,データ効率を継続的に改善し,より高い計画成功率を達成することを実証した。
論文 参考訳(メタデータ) (2025-06-05T05:28:14Z) - Meta-Learning Strategies through Value Maximization in Neural Networks [7.285835869818669]
完全に規範的な目的に対して制御信号を効率よく最適化できる学習活動フレームワークを提案する。
本稿では,一般的なメタ学習アルゴリズムにおける近似の影響について検討する。
設定全体では、学習の早い段階でタスクの容易な側面に適用する場合、制御の取り組みが最も有益であることが分かります。
論文 参考訳(メタデータ) (2023-10-30T18:29:26Z) - Actively Learning Reinforcement Learning: A Stochastic Optimal Control Approach [3.453622106101339]
本研究では,2つの相互に結びついた目的を達成するための枠組みを提案する。 (i) 積極的な探索と意図的な情報収集を伴う強化学習と, (ii) 最適制御法の計算的難易度を克服する枠組みである。
我々は、強化学習を用いて最適制御則を計算することにより、両方の目的にアプローチする。
一定の探索と搾取バランスとは異なり、学習プロセスが終了しても、警告と探索はリアルタイムでコントローラによって自動的に行われる。
論文 参考訳(メタデータ) (2023-09-18T18:05:35Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。