論文の概要: Rebalancing Batch Normalization for Exemplar-based Class-Incremental
Learning
- arxiv url: http://arxiv.org/abs/2201.12559v3
- Date: Tue, 18 Apr 2023 00:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 19:08:41.318971
- Title: Rebalancing Batch Normalization for Exemplar-based Class-Incremental
Learning
- Title(参考訳): 経験的クラスインクリメンタル学習のための再バランスバッチ正規化
- Authors: Sungmin Cha, Sungjun Cho, Dasol Hwang, Sunwon Hong, Moontae Lee, and
Taesup Moon
- Abstract要約: バッチ正規化(BN)は、様々なコンピュータビジョンタスクにおけるニューラルネットに対して広く研究されている。
我々はBNの新しい更新パッチを開発し、特にCIL(Exemplar-based class-incremental Learning)に特化している。
- 参考スコア(独自算出の注目度): 23.621259845287824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Batch Normalization (BN) and its variants has been extensively studied for
neural nets in various computer vision tasks, but relatively little work has
been dedicated to studying the effect of BN in continual learning. To that end,
we develop a new update patch for BN, particularly tailored for the
exemplar-based class-incremental learning (CIL). The main issue of BN in CIL is
the imbalance of training data between current and past tasks in a mini-batch,
which makes the empirical mean and variance as well as the learnable affine
transformation parameters of BN heavily biased toward the current task --
contributing to the forgetting of past tasks. While one of the recent BN
variants has been developed for "online" CIL, in which the training is done
with a single epoch, we show that their method does not necessarily bring gains
for "offline" CIL, in which a model is trained with multiple epochs on the
imbalanced training data. The main reason for the ineffectiveness of their
method lies in not fully addressing the data imbalance issue, especially in
computing the gradients for learning the affine transformation parameters of
BN. Accordingly, our new hyperparameter-free variant, dubbed as Task-Balanced
BN (TBBN), is proposed to more correctly resolve the imbalance issue by making
a horizontally-concatenated task-balanced batch using both reshape and repeat
operations during training. Based on our experiments on class incremental
learning of CIFAR-100, ImageNet-100, and five dissimilar task datasets, we
demonstrate that our TBBN, which works exactly the same as the vanilla BN in
the inference time, is easily applicable to most existing exemplar-based
offline CIL algorithms and consistently outperforms other BN variants.
- Abstract(参考訳): バッチ正規化(BN)とその変種は、様々なコンピュータビジョンタスクにおけるニューラルネットに対して広範囲に研究されてきたが、連続学習におけるBNの効果を研究する研究はほとんど行われていない。
そこで我々はBNの新しい更新パッチを開発し、特にCIL(Exemplar-based class-incremental Learning)に特化している。
cilにおけるbnの主な問題は、ミニバッチにおける現在のタスクと過去のタスクの間のトレーニングデータの不均衡であり、経験的平均と分散、およびbnの学習可能なアフィン変換パラメータが現在のタスクに強く偏っている。
近年のbn変種の一つが「オンライン」シルのために開発され、1つのエポックでトレーニングが行われているが、それらの方法は必ずしも不均衡なトレーニングデータで複数のエポックをトレーニングする「オフライン」シルに利益をもたらすものではない。
これらの手法の非効率性の主な理由は、特にBNのアフィン変換パラメータを学習するための勾配の計算において、データ不均衡の問題を完全に解決しないことである。
そこで,本研究では,タスクベースBN (TBBN) と呼ばれる新しいハイパーパラメータフリー変種を,トレーニング中のリフォームとリピート操作の両方を用いて,水平結合型タスクバランスバッチを作成することにより,不均衡問題をより正確に解決することを提案する。
CIFAR-100, ImageNet-100, および5つの異なるタスクデータセットのクラスインクリメンタル学習実験に基づいて, 推定時間におけるバニラBNと全く同じ動作であるTBBNが, 既存の既存のオフラインCILアルゴリズムに容易に適用でき, BNの変種を一貫して上回ることを示す。
関連論文リスト
- Unified Batch Normalization: Identifying and Alleviating the Feature
Condensation in Batch Normalization and a Unified Framework [55.22949690864962]
バッチ正規化(BN)は、現代のニューラルネットワーク設計において欠かせない技術となっている。
UBN(Unified Batch Normalization)と呼ばれる2段階統合フレームワークを提案する。
UBNは異なる視覚バックボーンと異なる視覚タスクのパフォーマンスを大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-27T16:41:31Z) - Overcoming Recency Bias of Normalization Statistics in Continual
Learning: Balance and Adaptation [67.77048565738728]
継続的な学習には、一連のタスクを学習し、彼らの知識を適切にバランスさせることが含まれる。
本稿では,タスク・ワイド・コントリビューションに適応するためのベイズ的戦略を適切に取り入れた BN の適応バランス (AdaB$2$N) を提案する。
提案手法は,幅広いベンチマークにおいて,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2023-10-13T04:50:40Z) - An Adaptive Batch Normalization in Deep Learning [0.0]
バッチ正規化(BN)は、深層畳み込みニューラルネットワークのトレーニングを加速し、安定させる方法である。
本稿では、BNを必要とするデータとそれを必要としないデータを分離する、しきい値に基づく適応的なBNアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-03T12:12:56Z) - Diagnosing Batch Normalization in Class Incremental Learning [39.70552266952221]
バッチ正規化(BN)は中間特徴写像を標準化し、訓練安定性と収束性を改善するために広く検証されている。
分類バイアスを排除しつつ,より優れた特徴抽出器を訓練することにより,この問題に対処するBN Tricksを提案する。
BN Tricksが採用されているすべてのベースラインに大幅なパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-02-16T12:38:43Z) - Revisiting Batch Normalization [0.0]
バッチ正規化(BN)は、ディープニューラルネットワークのトレーニングに不可欠である。
我々は、BNの定式化を再検討し、上記の問題に対処するために、BNの新しい方法と更新アプローチを提案する。
提案手法をBNに変更した実験結果は,様々なシナリオにおいて統計的に有意な性能向上を示した。
また、オンラインBNベースの入力データ正規化手法を提案し、他のオフラインや固定メソッドの必要性を軽減する。
論文 参考訳(メタデータ) (2021-10-26T19:48:19Z) - "BNN - BN = ?": Training Binary Neural Networks without Batch
Normalization [92.23297927690149]
バッチ正規化(BN)は、最先端のバイナリニューラルネットワーク(BNN)に不可欠な重要なファシリテータである
BNNのトレーニングに彼らのフレームワークを拡張し、BNNのトレーニングや推論体制からBNを除去できることを初めて実証します。
論文 参考訳(メタデータ) (2021-04-16T16:46:57Z) - MimicNorm: Weight Mean and Last BN Layer Mimic the Dynamic of Batch
Normalization [60.36100335878855]
ネットワークトレーニングにおける収束と効率を改善するために,MimicNormという新しい正規化手法を提案する。
我々は、神経核(NTK)理論を利用して、我々の重み付けが活性化を弱め、BN層のようなカオス状態にネットワークを移行することを証明する。
MimicNormは、ResNetsやShuffleNetのような軽量ネットワークなど、さまざまなネットワーク構造に対して同様の精度を実現し、約20%のメモリ消費を削減している。
論文 参考訳(メタデータ) (2020-10-19T07:42:41Z) - Double Forward Propagation for Memorized Batch Normalization [68.34268180871416]
バッチ正規化(BN)は、ディープニューラルネットワーク(DNN)の設計における標準コンポーネントである。
より正確でロバストな統計値を得るために,複数の最近のバッチを考慮に入れた記憶型バッチ正規化(MBN)を提案する。
関連する手法と比較して、提案したMBNはトレーニングと推論の両方において一貫した振る舞いを示す。
論文 参考訳(メタデータ) (2020-10-10T08:48:41Z) - Towards Stabilizing Batch Statistics in Backward Propagation of Batch
Normalization [126.6252371899064]
移動平均バッチ正規化(MABN)は,新しい正規化法である。
小バッチの場合,MABNはバニラBNの性能を完全に回復できることを示す。
実験では、ImageNetやCOCOを含む複数のコンピュータビジョンタスクにおけるMABNの有効性を実証した。
論文 参考訳(メタデータ) (2020-01-19T14:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。