論文の概要: Capacity-Constrained Continual Learning
- arxiv url: http://arxiv.org/abs/2507.21479v1
- Date: Tue, 29 Jul 2025 03:47:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.57381
- Title: Capacity-Constrained Continual Learning
- Title(参考訳): 容量制約付き連続学習
- Authors: Zheng Wen, Doina Precup, Benjamin Van Roy, Satinder Singh,
- Abstract要約: 本稿では,限られた能力を持つエージェントが資源を最適な性能に割り当てる方法について検討する。
容量制約付き線形四元数-ガウス列予測問題に対する解法を導出する。
サブプロブレムの集合に分解できる問題に対しては、定常状態においてこれらのサブプロブレム全体にわたってキャパシティを最適に割り当てる方法についても示す。
- 参考スコア(独自算出の注目度): 64.70016365121081
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Any agents we can possibly build are subject to capacity constraints, as memory and compute resources are inherently finite. However, comparatively little attention has been dedicated to understanding how agents with limited capacity should allocate their resources for optimal performance. The goal of this paper is to shed some light on this question by studying a simple yet relevant continual learning problem: the capacity-constrained linear-quadratic-Gaussian (LQG) sequential prediction problem. We derive a solution to this problem under appropriate technical conditions. Moreover, for problems that can be decomposed into a set of sub-problems, we also demonstrate how to optimally allocate capacity across these sub-problems in the steady state. We view the results of this paper as a first step in the systematic theoretical study of learning under capacity constraints.
- Abstract(参考訳): メモリと計算リソースは本質的に有限であるため、構築可能なエージェントはキャパシティの制約を受けます。
しかし、限られた能力を持つエージェントが最適なパフォーマンスのためにリソースを割り当てるべきかどうかを理解することには、比較的注意が向けられていない。
本研究の目的は, キャパシティに制約のある線形四元系ガウス(LQG)の逐次予測問題である, 単純だが関連性のある連続学習問題を研究することで, この問題にいくつかの光を当てることである。
適切な技術的条件下でこの問題に対する解決策を導出する。
さらに、サブプロブレムの集合に分解できる問題に対しては、これらのサブプロブレムを定常状態に分散してキャパシティを最適に割り当てる方法についても示す。
本稿では,キャパシティ制約下での学習の体系的理論的研究における第一歩として,本論文の結果を考察する。
関連論文リスト
- Situational-Constrained Sequential Resources Allocation via Reinforcement Learning [17.8234166913582]
状況制約を伴う逐次資源配分は、現実世界のアプリケーションにおいて大きな課題となる。
本稿では,この問題に対処するための新しいフレームワークであるSCRLを紹介する。
我々は制約違反を動的に罰する新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-06-17T02:40:49Z) - Convergences for Minimax Optimization Problems over Infinite-Dimensional
Spaces Towards Stability in Adversarial Training [0.6008132390640294]
GAN(Generative Adversarial Network)のような、敵の最適化を必要とするニューラルネットワークのトレーニングは不安定に悩まされる。
本研究では,機能解析を通じて理論的にこの問題に対処する。
論文 参考訳(メタデータ) (2023-12-02T01:15:57Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Exact Asymptotics for Linear Quadratic Adaptive Control [6.287145010885044]
最も単純な非帯域強化学習問題である線形二次制御(LQAC)について検討する。
ステップワイズ更新LQACアルゴリズムの残差,推定誤差,予測誤差の式を導出する。
安定系と不安定系のシミュレーションにおいて、我々の理論はアルゴリズムの有限サンプル挙動を著しくよく記述している。
論文 参考訳(メタデータ) (2020-11-02T22:43:30Z) - Probably Approximately Correct Constrained Learning [135.48447120228658]
我々は、ほぼ正しい学習フレームワーク(PAC)に基づく一般化理論を開発する。
PAC学習可能なクラスも制約のある学習者であるという意味では,学習者の導入は学習問題を難しくするものではないことを示す。
このソリューションの特性を分析し,制約付き学習が公平でロバストな分類における問題にどのように対処できるかを説明する。
論文 参考訳(メタデータ) (2020-06-09T19:59:29Z) - The empirical duality gap of constrained statistical learning [115.23598260228587]
本研究では,制約付き統計学習問題(制約なし版)について,ほぼ全ての現代情報処理のコアとなる研究を行った。
本稿では, 有限次元パラメータ化, サンプル平均, 双対性理論を利用して, 無限次元, 未知分布, 制約を克服する制約付き統計問題に取り組むことを提案する。
フェアラーニングアプリケーションにおいて,この制約付き定式化の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-02-12T19:12:29Z) - Lagrangian Duality for Constrained Deep Learning [51.2216183850835]
本稿では,複雑な制約を特徴とする学習アプリケーションにおけるラグランジアン双対性の可能性について検討する。
エネルギー領域において、ラグランジアン双対性とディープラーニングの組み合わせは、最先端の結果を得るために用いられる。
翻訳計算において、ラグランジュ双対性は、予測子に単調性制約を課すためにディープラーニングを補完することができる。
論文 参考訳(メタデータ) (2020-01-26T03:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。