論文の概要: Two Complementary Perspectives to Continual Learning: Ask Not Only What
to Optimize, But Also How
- arxiv url: http://arxiv.org/abs/2311.04898v1
- Date: Wed, 8 Nov 2023 18:57:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 14:46:54.225263
- Title: Two Complementary Perspectives to Continual Learning: Ask Not Only What
to Optimize, But Also How
- Title(参考訳): 継続的な学習に対する2つの補完的視点:最適化するだけでなく、どのようにして学習するかを問う
- Authors: Timm Hess, Tinne Tuytelaars, Gido M. van de Ven
- Abstract要約: 損失関数にリプレイや正規化の項を追加するアプローチは、新しいタスクのトレーニングを開始する際には、一時的ではあるが重大な忘れがちであることを示す。
この「安定ギャップ」に動機づけられた学習戦略は、最適化目的だけでなく、この目的の最適化方法にも焦点をあてるべきである。
- 参考スコア(独自算出の注目度): 40.83885436290672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have seen considerable progress in the continual training of
deep neural networks, predominantly thanks to approaches that add replay or
regularization terms to the loss function to approximate the joint loss over
all tasks so far. However, we show that even with a perfect approximation to
the joint loss, these approaches still suffer from temporary but substantial
forgetting when starting to train on a new task. Motivated by this 'stability
gap', we propose that continual learning strategies should focus not only on
the optimization objective, but also on the way this objective is optimized.
While there is some continual learning work that alters the optimization
trajectory (e.g., using gradient projection techniques), this line of research
is positioned as alternative to improving the optimization objective, while we
argue it should be complementary. To evaluate the merits of our proposition, we
plan to combine replay-approximated joint objectives with gradient
projection-based optimization routines to test whether the addition of the
latter provides benefits in terms of (1) alleviating the stability gap, (2)
increasing the learning efficiency and (3) improving the final learning
outcome.
- Abstract(参考訳): 近年、ディープニューラルネットワークの継続的なトレーニングが大幅に進歩しており、これは主に、これまでのすべてのタスクにおける関節の損失を近似するために、損失関数にリプレイ項や正規化項を追加するアプローチによるものである。
しかし, 関節損傷を完璧に近似したとしても, 新しい課題の訓練を始める際には, 一時的ではあるが重大な忘れがちであることがわかった。
この「安定ギャップ」に動機づけられ、継続的な学習戦略は最適化目標だけでなく、この目標の最適化方法にも焦点をあてるべきである。
最適化の軌道を変える連続的な学習作業(例えば、勾配投影技術を使用する)があるが、この研究の行は最適化の目的を改善する代替として位置づけられている。
本提案のメリットを評価するために,リプレイ近似の目標と勾配投影に基づく最適化ルーチンを組み合わせることで,(1)安定性ギャップの緩和,(2)学習効率の向上,(3)最終学習結果の改善という観点で,後者の追加がメリットをもたらすかどうかを検証する。
関連論文リスト
- Modeling of learning curves with applications to pos tagging [0.27624021966289597]
トレーニングベース全体の学習曲線の進化を推定するアルゴリズムを導入する。
学習手法とは無関係に,所望のタイミングで探索値を反復的に近似する。
本提案は, 作業仮説に関して正式に正しいことを証明し, 信頼性の高い近接条件を含む。
論文 参考訳(メタデータ) (2024-02-04T15:00:52Z) - Investigation into the Training Dynamics of Learned Optimizers [0.0]
従来の手作りのアルゴリズムをメタ学習関数に置き換えることで、学習の概念を最適化プロセスを加速させる方法として検討する。
本研究は,ネットワークアーキテクチャの対称性と更新パラメータの観点から最適化について検討する。
私たちは、それぞれのアプローチが互いの強みからどのように恩恵を受けるかを示すいくつかの重要な洞察を特定します。
論文 参考訳(メタデータ) (2023-12-12T11:18:43Z) - Gradient constrained sharpness-aware prompt learning for vision-language
models [99.74832984957025]
本稿では,視覚言語モデル(VLM)の一般化可能な即時学習における新たなトレードオフ問題を提案する。
最先端手法のロスランドスケープとSAMに基づくバニラシャープネス認識最小化法を解析することにより、トレードオフ性能は損失値と損失シャープネスの両方に相関していると結論付けた。
本稿では,GCSCoOp (Gradient Constrained Sharpness-Aware Context Optimization) と表記される,素早い学習のためのSAMベースの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-09-14T17:13:54Z) - Traceable Group-Wise Self-Optimizing Feature Transformation Learning: A
Dual Optimization Perspective [33.45878576396101]
特徴変換は、既存の特徴を数学的に洗練することにより、効果的な表現空間を再構築することを目的としている。
既存の研究は主にドメイン知識に基づく特徴工学や学習潜在表現に重点を置いている。
最初の作業は、新しい自己最適化フレームワークを導入することで、この課題への先駆的な一歩を踏み出したのです。
論文 参考訳(メタデータ) (2023-06-29T12:29:21Z) - Bridging the Gap Between Target Networks and Functional Regularization [61.051716530459586]
関数空間における凸正規化器であり、容易に調整できる明示的な関数正規化を提案する。
提案手法の収束を理論的・実験的に解析し,より理論的に根ざした機能正規化アプローチでターゲットネットワークを置き換えることにより,サンプリング効率と性能が向上することが実証された。
論文 参考訳(メタデータ) (2022-10-21T22:27:07Z) - Improved Binary Forward Exploration: Learning Rate Scheduling Method for
Stochastic Optimization [3.541406632811038]
BFE(Binary Forward Exploration)と呼ばれる,学習速度の自動スケジューリングによる勾配に基づく新しい最適化手法が最近提案されている。
本稿では,提案手法の効率性とロバスト性を最適化するため,改良されたアルゴリズムについて検討する。
本手法の目的は,他者を倒すことではなく,勾配降下過程を最適化するための異なる視点を提供することである。
論文 参考訳(メタデータ) (2022-07-09T05:28:44Z) - Mixing between the Cross Entropy and the Expectation Loss Terms [89.30385901335323]
クロスエントロピー損失は、トレーニング中にサンプルを分類するのが難しくなる傾向にある。
最適化目標に期待損失を加えることで,ネットワークの精度が向上することを示す。
実験により,新しいトレーニングプロトコルにより,多様な分類領域における性能が向上することが示された。
論文 参考訳(メタデータ) (2021-09-12T23:14:06Z) - Latent-Optimized Adversarial Neural Transfer for Sarcasm Detection [50.29565896287595]
サーカズム検出のための共通データセットを活用するために,転送学習を適用する。
異なる損失が互いに対応できる汎用的な潜時最適化戦略を提案します。
特に、isarcasmデータセットの以前の状態よりも10.02%の絶対性能向上を達成している。
論文 参考訳(メタデータ) (2021-04-19T13:07:52Z) - Learning to Plan Optimistically: Uncertainty-Guided Deep Exploration via
Latent Model Ensembles [73.15950858151594]
本稿では,不確実な長期報酬に直面した最適化による深層探査を可能にするLOVE(Latent Optimistic Value Exploration)を提案する。
潜在世界モデルと値関数推定を組み合わせ、無限水平リターンを予測し、アンサンブルにより関連する不確実性を回復する。
連続行動空間における視覚ロボット制御タスクにLOVEを適用し、最先端や他の探査目標と比較して、平均20%以上のサンプル効率の改善を実証する。
論文 参考訳(メタデータ) (2020-10-27T22:06:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。