論文の概要: ACIL: Analytic Class-Incremental Learning with Absolute Memorization and
Privacy Protection
- arxiv url: http://arxiv.org/abs/2205.14922v1
- Date: Mon, 30 May 2022 08:41:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 14:43:20.442169
- Title: ACIL: Analytic Class-Incremental Learning with Absolute Memorization and
Privacy Protection
- Title(参考訳): ACIL:絶対記憶とプライバシー保護を備えた分析的クラスインクリメンタルラーニング
- Authors: Huiping Zhuang, Zhenyu Weng, Renchunzi Xie, Kar-Ann Toh, Zhiping Lin
- Abstract要約: クラス増分学習(CIL)は、段階的に異なるクラスのトレーニングデータを持つ分類モデルを学習する。
線形学習の定式化に着想を得て,過去の知識を絶対記憶した分析クラス増分学習(ACIL)を提案する。
- 参考スコア(独自算出の注目度): 24.971575257217715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-incremental learning (CIL) learns a classification model with training
data of different classes arising progressively. Existing CIL either suffers
from serious accuracy loss due to catastrophic forgetting, or invades data
privacy by revisiting used exemplars. Inspired by linear learning formulations,
we propose an analytic class-incremental learning (ACIL) with absolute
memorization of past knowledge while avoiding breaching of data privacy (i.e.,
without storing historical data). The absolute memorization is demonstrated in
the sense that class-incremental learning using ACIL given present data would
give identical results to that from its joint-learning counterpart which
consumes both present and historical samples. This equality is theoretically
validated. Data privacy is ensured since no historical data are involved during
the learning process. Empirical validations demonstrate ACIL's competitive
accuracy performance with near-identical results for various incremental task
settings (e.g., 5-50 phases). This also allows ACIL to outperform the
state-of-the-art methods for large-phase scenarios (e.g., 25 and 50 phases).
- Abstract(参考訳): クラスインクリメンタルラーニング(CIL)は、段階的に異なるクラスのトレーニングデータを持つ分類モデルを学ぶ。
既存のCILは、破滅的な忘れ込みによる深刻な精度の損失に悩まされるか、あるいは、使用済みの例を再考することによってデータのプライバシーを侵害する。
線形学習の定式化に触発されて,過去の知識を絶対記憶し,データプライバシの侵害を回避する分析的クラスインクリメンタル学習(acil)を提案する。
絶対記憶は、ACILを用いたクラスインクリメンタル学習が、現在のサンプルと歴史的なサンプルの両方を消費する共同学習と同等の結果を与えるという意味で示される。
この等式は理論的に検証される。
学習プロセス中に履歴データが関与しないため、データのプライバシは保証される。
経験的検証は、様々なインクリメンタルなタスク設定(例えば5~50フェーズ)に対して、ほぼ同一の結果を持つacilの競合的正確性を示す。
これによりacilは、大局的なシナリオ(例えば25フェーズと50フェーズ)で最先端の手法を上回ることができる。
関連論文リスト
- TS-ACL: A Time Series Analytic Continual Learning Framework for Privacy-Preserving and Class-Incremental Pattern Recognition [14.108911377558242]
TS-ACLは、プライバシー保護とクラスインクリメンタルパターン認識のための新しいフレームワークである。
モデルの各更新は、クローズドフォームのソリューションで、勾配のない分析学習プロセスに変換される。
同時に、非鍛造、プライバシー保護、軽量消費を実現し、様々なアプリケーションに広く適合する。
論文 参考訳(メタデータ) (2024-10-21T12:34:02Z) - Adaptive Pre-training Data Detection for Large Language Models via Surprising Tokens [1.2549198550400134]
大きな言語モデル(LLM)は広く使われているが、プライバシー、セキュリティ、著作権については不透明なトレーニングデータのために懸念されている。
この問題に対する現在の解決策は、メンバーシップ推論攻撃(MIA)のような機械学習プライバシで探索されたテクニックを活用する。
本稿では、この信頼性を軽減し、同定を効果的に増幅する適応型事前学習データ検出法を提案する。
論文 参考訳(メタデータ) (2024-07-30T23:43:59Z) - Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Forget Unlearning: Towards True Data-Deletion in Machine Learning [18.656957502454592]
アンラーニングはデータ削除と同等ではなく、「忘れられる権利」を保証していないことを示す。
本稿では,オンライン環境での精度,計算効率,セキュアなデータ削除機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-17T10:06:11Z) - Continual Learning For On-Device Environmental Sound Classification [63.81276321857279]
デバイス上での環境音の分類のための簡易かつ効率的な連続学習法を提案する。
本手法は,サンプルごとの分類の不確実性を測定することにより,トレーニングの履歴データを選択する。
論文 参考訳(メタデータ) (2022-07-15T12:13:04Z) - Queried Unlabeled Data Improves and Robustifies Class-Incremental
Learning [133.39254981496146]
クラス増分学習(Class-incremental Learning, CIL)は、新たに追加されたクラスを学習することと、以前に学習したクラス知識を保存することの間の悪名高いジレンマに悩まされる。
我々は、連続学習において「自由」な外部ラベル付きデータクエリを活用することを提案する。
CIL-QUDを堅牢化したバージョンにシームレスに拡張する。
論文 参考訳(メタデータ) (2022-06-15T22:53:23Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。