論文の概要: Isolation and Impartial Aggregation: A Paradigm of Incremental Learning
without Interference
- arxiv url: http://arxiv.org/abs/2211.15969v1
- Date: Tue, 29 Nov 2022 06:57:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 16:32:56.296267
- Title: Isolation and Impartial Aggregation: A Paradigm of Incremental Learning
without Interference
- Title(参考訳): 孤立と公平な集約: 干渉のないインクリメンタル学習のパラダイム
- Authors: Yabin Wang and Zhiheng Ma and Zhiwu Huang and Yaowei Wang and Zhou Su
and Xiaopeng Hong
- Abstract要約: 本稿では,インクリメンタルラーニングの段階におけるパフォーマンスの不均衡について論じる。
ステージアイソレーションに基づくインクリメンタルラーニングフレームワークを提案する。
提案手法を4つの大規模ベンチマークで評価した。
- 参考スコア(独自算出の注目度): 61.11137714507445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on the prevalent performance imbalance in the stages of
incremental learning. To avoid obvious stage learning bottlenecks, we propose a
brand-new stage-isolation based incremental learning framework, which leverages
a series of stage-isolated classifiers to perform the learning task of each
stage without the interference of others. To be concrete, to aggregate multiple
stage classifiers as a uniform one impartially, we first introduce a
temperature-controlled energy metric for indicating the confidence score levels
of the stage classifiers. We then propose an anchor-based energy
self-normalization strategy to ensure the stage classifiers work at the same
energy level. Finally, we design a voting-based inference augmentation strategy
for robust inference. The proposed method is rehearsal free and can work for
almost all continual learning scenarios. We evaluate the proposed method on
four large benchmarks. Extensive results demonstrate the superiority of the
proposed method in setting up new state-of-the-art overall performance.
\emph{Code is available at} \url{https://github.com/iamwangyabin/ESN}.
- Abstract(参考訳): 本稿では,インクリメンタル学習の段階におけるパフォーマンスの不均衡について述べる。
ステージ分離された一連の分類器を活用して,各ステージの学習タスクを他人の干渉なしに実行する。
具体的には、複数のステージ分類器を均等に集約するために、まず、ステージ分類器の信頼度スコアレベルを示す温度制御エネルギーメトリックを導入する。
次に,ステージ分類器が同じエネルギーレベルで動作することを保証するために,アンカー型エネルギー自己正規化戦略を提案する。
最後に,ロバスト推論のための投票に基づく推論拡張戦略を設計する。
提案手法はリハーサルフリーであり,ほぼすべての連続学習シナリオに対して有効である。
提案手法を4つの大規模ベンチマークで評価した。
以上の結果から,提案手法の総合的な性能向上における優位性を示す。
\emph{Code は \url{https://github.com/iamwangyabin/ESN} で利用可能である。
関連論文リスト
- Maximally Separated Active Learning [32.98415531556376]
固定等角超球面点をクラスプロトタイプとして利用する能動的学習法を提案する。
5つのベンチマークデータセットにまたがる既存のアクティブラーニング技術よりも高いパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-11-26T14:02:43Z) - BECLR: Batch Enhanced Contrastive Few-Shot Learning [1.450405446885067]
教師なしの少数ショット学習は、トレーニング時にアノテーションへの依存を捨てることで、このギャップを埋めようとしている。
本稿では,高度に分離可能な潜在表現空間を促進するために,新しい動的クラスタ mEmory (DyCE) モジュールを提案する。
そして、数ショットの推論段階でサンプルバイアスの問題に取り組みます。
論文 参考訳(メタデータ) (2024-02-04T10:52:43Z) - Class-Incremental Mixture of Gaussians for Deep Continual Learning [15.49323098362628]
本稿では,ガウスモデルの混合を連続学習フレームワークに組み込むことを提案する。
固定抽出器を用いたメモリフリーシナリオにおいて,本モデルが効果的に学習可能であることを示す。
論文 参考訳(メタデータ) (2023-07-09T04:33:19Z) - Iterative Forward Tuning Boosts In-Context Learning in Language Models [88.25013390669845]
本研究では,大規模言語モデル(LLM)における文脈内学習を促進する新しい2段階フレームワークを提案する。
具体的には、当社のフレームワークでは、ICLプロセスをDeep-ThinkingとTest Stageの2つの別々のステージに分類しています。
ディープシンキング段階にはユニークな注意機構、すなわち反復的な注意強化機構が組み込まれており、複数の情報の蓄積を可能にしている。
論文 参考訳(メタデータ) (2023-05-22T13:18:17Z) - Tackling Online One-Class Incremental Learning by Removing Negative
Contrasts [12.048166025000976]
他の連続的な学習設定とは違い、学習者は1回だけ新しいサンプルが提示される。
ER-AMLは、入力データと再生データにコントラスト学習に基づく非対称な損失を適用することにより、この設定で強い性能を達成した。
我々は、教師付き学習から教師付き学習環境へ、最近提案されたアプローチを適応させ、コントラストの制約を解き放つ。
論文 参考訳(メタデータ) (2022-03-24T19:17:29Z) - Hybrid Dynamic Contrast and Probability Distillation for Unsupervised
Person Re-Id [109.1730454118532]
非監督的人物再識別(Re-Id)は、リードワールドビデオ監視システムにおける実践的応用により注目されている。
本稿では,ハイブリッド動的クラスタコントラストと確率蒸留アルゴリズムを提案する。
教師なしRe-Id問題を局所-言語的ダイナミックコントラスト学習と自己教師付き確率蒸留の枠組みに統合する。
論文 参考訳(メタデータ) (2021-09-29T02:56:45Z) - A Framework using Contrastive Learning for Classification with Noisy
Labels [1.2891210250935146]
雑音ラベルの存在下で画像分類を行うために,コントラスト学習を事前学習タスクとして利用するフレームワークを提案する。
擬似ラベル, ガウス混合モデルを用いたサンプル選択, 重み付き教師付きコントラスト学習などの近年の戦略は, 事前学習後の微調整相に組み合わされている。
論文 参考訳(メタデータ) (2021-04-19T18:51:22Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Self-supervised Text-independent Speaker Verification using Prototypical
Momentum Contrastive Learning [58.14807331265752]
モーメントの対比学習によって話者埋め込みがより良く学習できることを示す。
自己監視フレームワークを、データのごく一部しかラベル付けされない半監視シナリオに一般化します。
論文 参考訳(メタデータ) (2020-12-13T23:23:39Z) - Robust Imitation Learning from Noisy Demonstrations [81.67837507534001]
我々は,対称的損失を伴う分類リスクを最適化することにより,ロバストな模倣学習を実現することができることを示す。
擬似ラベルと協調学習を効果的に組み合わせた新しい模倣学習法を提案する。
連続制御ベンチマークによる実験結果から,本手法は最先端手法よりも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-10-20T10:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。