論文の概要: Few-Shot Class-Incremental Learning via Entropy-Regularized Data-Free
Replay
- arxiv url: http://arxiv.org/abs/2207.11213v1
- Date: Fri, 22 Jul 2022 17:30:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 13:19:58.910834
- Title: Few-Shot Class-Incremental Learning via Entropy-Regularized Data-Free
Replay
- Title(参考訳): エントロピー正規化データ自由再生によるクラスインクリメンタル学習
- Authors: Huan Liu, Li Gu, Zhixiang Chi, Yang Wang, Yuanhao Yu, Jun Chen and Jin
Tang
- Abstract要約: FSCIL (Few-shot class-incremental Learning) は,データ制限のあるクラスを段階的に学習する深層学習システムを実現するために提案されている。
データリプレイの採用は驚くほど好都合である,という実証的な結果を通じて示します。
本研究では,実データにアクセスすることなく,ジェネレータによるデータ合成が可能なデータフリーリプレイを提案する。
- 参考スコア(独自算出の注目度): 52.251188477192336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot class-incremental learning (FSCIL) has been proposed aiming to
enable a deep learning system to incrementally learn new classes with limited
data. Recently, a pioneer claims that the commonly used replay-based method in
class-incremental learning (CIL) is ineffective and thus not preferred for
FSCIL. This has, if truth, a significant influence on the fields of FSCIL. In
this paper, we show through empirical results that adopting the data replay is
surprisingly favorable. However, storing and replaying old data can lead to a
privacy concern. To address this issue, we alternatively propose using
data-free replay that can synthesize data by a generator without accessing real
data. In observing the the effectiveness of uncertain data for knowledge
distillation, we impose entropy regularization in the generator training to
encourage more uncertain examples. Moreover, we propose to relabel the
generated data with one-hot-like labels. This modification allows the network
to learn by solely minimizing the cross-entropy loss, which mitigates the
problem of balancing different objectives in the conventional knowledge
distillation approach. Finally, we show extensive experimental results and
analysis on CIFAR-100, miniImageNet and CUB-200 to demonstrate the
effectiveness of our proposed one.
- Abstract(参考訳): FSCIL (Few-shot class-incremental Learning) は,データ制限のあるクラスを段階的に学習する深層学習システムを実現するために提案されている。
近年,クラスインクリメンタルラーニング(cil)におけるリプレイベース手法は非効率であり,そのためfscilでは好ましくないと主張している。
これは、実のところ、FSCILの分野に大きな影響を与えている。
本稿では,データ再生の導入が驚くほど好都合であることを示す。
しかし、古いデータの保存と再生はプライバシー上の懸念につながる可能性がある。
この問題に対処するために,実データにアクセスせずにジェネレータでデータを合成できるデータフリーリプレイを提案する。
知識蒸留における不確かさデータの有効性を観察するために,より不確かさのある例を奨励するために,生成訓練にエントロピー正則化を課す。
さらに,生成したデータを1ホットライクなラベルでラベル付けする手法を提案する。
この修正により、従来の知識蒸留手法における異なる目的のバランスの問題を軽減するクロスエントロピー損失を最小化することでネットワークを学習することができる。
最後に,cifar-100,miniimagenet,cub-200の広範な実験結果と解析を行い,提案手法の有効性を示す。
関連論文リスト
- Reducing Catastrophic Forgetting in Online Class Incremental Learning Using Self-Distillation [3.8506666685467343]
連続学習では、モデルが新しいタスクを学ぶと、以前の知識は忘れられる。
本稿では, 自己蒸留による伝達可能な知識の獲得により, この問題の解決を試みた。
提案手法は,CIFAR10,CIFAR100,MinimageNetデータセットを用いた実験により従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-17T16:26:33Z) - Enabling On-Device Learning via Experience Replay with Efficient Dataset Condensation [15.915388740468815]
本稿では,重要な情報損失を回避するために,最も代表的データを特定する問題に対処するオンデバイスフレームワークを提案する。
具体的には、未ラベルの着信データを効果的に処理するために、未ラベルのオンデバイス学習環境向けに設計された擬似ラベル技術を提案する。
バッファ容量は1クラスにつき1サンプルに過ぎず,既存のベースラインを58.4%上回る精度を実現している。
論文 参考訳(メタデータ) (2024-05-25T07:52:36Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - Always Be Dreaming: A New Approach for Data-Free Class-Incremental
Learning [73.24988226158497]
データフリークラスインクリメンタルラーニング(DFCIL)における高インパクト問題について考察する。
そこで本研究では, 改良型クロスエントロピートレーニングと重要重み付き特徴蒸留に寄与するDFCILの新たなインクリメンタル蒸留戦略を提案する。
本手法は,共通クラスインクリメンタルベンチマークにおけるSOTA DFCIL法と比較して,最終タスク精度(絶対差)が25.1%向上する。
論文 参考訳(メタデータ) (2021-06-17T17:56:08Z) - Distilling Causal Effect of Data in Class-Incremental Learning [109.680987556265]
CIL(Class-Incremental Learning)における破滅的な忘れ方を説明するための因果的枠組みを提案する。
我々は,データ再生や特徴・ラベル蒸留といった既存のアンチフォジット手法を緩和する新しい蒸留法を考案した。
論文 参考訳(メタデータ) (2021-03-02T14:14:10Z) - Class-incremental Learning with Rectified Feature-Graph Preservation [24.098892115785066]
本論文の中心的なテーマは,逐次的な段階を経る新しいクラスを学習することである。
旧知識保存のための重み付きユークリッド正規化を提案する。
新しいクラスを効果的に学習するために、クラス分離を増やすためにバイナリクロスエントロピーでどのように機能するかを示す。
論文 参考訳(メタデータ) (2020-12-15T07:26:04Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。