論文の概要: Disposable Transfer Learning for Selective Source Task Unlearning
- arxiv url: http://arxiv.org/abs/2308.09971v1
- Date: Sat, 19 Aug 2023 10:13:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 18:38:02.011957
- Title: Disposable Transfer Learning for Selective Source Task Unlearning
- Title(参考訳): 選択的ソースタスクアンラーニングのための使い捨て転送学習
- Authors: Seunghee Koh, Hyounguk Shon, Janghyeon Lee, Hyeong Gwon Hong, Junmo
Kim
- Abstract要約: 転送学習は、強力な表現を構築するためのディープニューラルネットワーク(DNN)のトレーニングに広く使用されている。
Disposable Transfer Learning (DTL)は、ターゲットタスクのパフォーマンスを低下させることなく、ソースタスクのみを処分する。
我々は,GC損失がDTL問題に対する効果的なアプローチであることを示し,GC損失をトレーニングしたモデルが,PL精度を著しく低減した目標タスクの性能を維持することを示した。
- 参考スコア(独自算出の注目度): 31.020636963762836
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Transfer learning is widely used for training deep neural networks (DNN) for
building a powerful representation. Even after the pre-trained model is adapted
for the target task, the representation performance of the feature extractor is
retained to some extent. As the performance of the pre-trained model can be
considered the private property of the owner, it is natural to seek the
exclusive right of the generalized performance of the pre-trained weight. To
address this issue, we suggest a new paradigm of transfer learning called
disposable transfer learning (DTL), which disposes of only the source task
without degrading the performance of the target task. To achieve knowledge
disposal, we propose a novel loss named Gradient Collision loss (GC loss). GC
loss selectively unlearns the source knowledge by leading the gradient vectors
of mini-batches in different directions. Whether the model successfully
unlearns the source task is measured by piggyback learning accuracy (PL
accuracy). PL accuracy estimates the vulnerability of knowledge leakage by
retraining the scrubbed model on a subset of source data or new downstream
data. We demonstrate that GC loss is an effective approach to the DTL problem
by showing that the model trained with GC loss retains the performance on the
target task with a significantly reduced PL accuracy.
- Abstract(参考訳): 転送学習は、強力な表現を構築するためのディープニューラルネットワーク(DNN)のトレーニングに広く使用されている。
予め訓練されたモデルを対象タスクに適合させた後でも、特徴抽出器の表現性能をある程度保持する。
プレトレーニングモデルの性能は、所有者の私的財産と見なすことができるので、プレトレーニングウェイトの汎用的性能の排他的権利を求めるのは自然である。
この問題に対処するために,対象タスクの性能を低下させることなく,ソースタスクのみを処分する,可処分転送学習(dtl)と呼ばれる新しいトランスファー学習パラダイムを提案する。
知識処理を実現するために, 勾配衝突損失(gc損失)という新しい損失を提案する。
gc損失は、ミニバッチの勾配ベクトルを異なる方向に導くことによって、ソース知識を選択的に解き放つ。
モデルが元のタスクをうまく解き放つかどうかを、ピギーバック学習精度(PL精度)で測定する。
PL精度は、ソースデータまたは新しい下流データのサブセット上でスクラブモデルを再トレーニングすることで、知識漏洩の脆弱性を推定する。
我々は、gc損失を訓練したモデルが、pl精度を大幅に低減した目標タスクの性能を維持することを示すことにより、dtl問題の効果的なアプローチであるgc損失を実証する。
関連論文リスト
- Parameter-Efficient and Memory-Efficient Tuning for Vision Transformer: A Disentangled Approach [87.8330887605381]
本稿では,学習可能なパラメータをわずかに限定して,事前学習した視覚変換器を下流認識タスクに適用する方法を示す。
学習可能で軽量なモジュールを用いてタスク固有のクエリを合成する。
本手法はメモリ制約下での最先端性能を実現し,実環境における適用性を示す。
論文 参考訳(メタデータ) (2024-07-09T15:45:04Z) - EsaCL: Efficient Continual Learning of Sparse Models [10.227171407348326]
連続的な学習設定の主な課題は、以前に学習したタスクを実行する方法を忘れずに、タスクのシーケンスを効率的に学習することである。
本研究では,モデルの予測力に悪影響を及ぼすことなく,冗長なパラメータを自動生成する,スパースモデル(EsaCL)の効率的な連続学習法を提案する。
論文 参考訳(メタデータ) (2024-01-11T04:59:44Z) - Task-Robust Pre-Training for Worst-Case Downstream Adaptation [62.05108162160981]
プレトレーニングは下流のタスクに移行することで大きな成功を収めた。
本稿では,下流タスクに対する一様性能を保証するモデルについて,事前学習について考察する。
論文 参考訳(メタデータ) (2023-06-21T07:43:23Z) - Optimal transfer protocol by incremental layer defrosting [66.76153955485584]
トランスファーラーニングは、限られた量のデータでモデルトレーニングを可能にする強力なツールである。
最も単純な転送学習プロトコルは、データリッチなソースタスクで事前訓練されたネットワークの機能抽出層を凍結する。
このプロトコルは、しばしば準最適であり、事前学習されたネットワークの小さな部分を凍結したままにしておくと、最大の性能向上が達成される可能性がある。
論文 参考訳(メタデータ) (2023-03-02T17:32:11Z) - TIDo: Source-free Task Incremental Learning in Non-stationary
Environments [0.0]
モデルベースのエージェントを更新して新しいターゲットタスクを学習するには、過去のトレーニングデータを格納する必要があります。
ラベル付きターゲットデータセットの制限を克服するタスクインクリメンタル学習手法はほとんどない。
本研究では,非定常的および目標的タスクに適応可能なワンショットタスクインクリメンタル学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T02:19:45Z) - Task Residual for Tuning Vision-Language Models [69.22958802711017]
タスク残差調整(TaskRes)と呼ばれる視覚言語モデル(VLM)のための新しい効率的なチューニング手法を提案する。
TaskResは、トレーニング済みモデルの事前知識とターゲットタスクに関する新たな知識を明示的に分離する。
提案されたTaskResは単純だが有効であり、11のベンチマークデータセットで以前のメソッドよりも大幅に上回っている。
論文 参考訳(メタデータ) (2022-11-18T15:09:03Z) - Pre-Train Your Loss: Easy Bayesian Transfer Learning with Informative
Priors [59.93972277761501]
我々は,教師付きあるいは自己指導型アプローチにより,ソースタスクから高い情報的後部を学習できることを実証した。
このシンプルなモジュラーアプローチは、様々な下流の分類とセグメンテーションタスクにおいて、大幅なパフォーマンス向上と、よりデータ効率のよい学習を可能にする。
論文 参考訳(メタデータ) (2022-05-20T16:19:30Z) - CARTL: Cooperative Adversarially-Robust Transfer Learning [22.943270371841226]
ディープラーニングでは、トランスファーラーニングの典型的な戦略は、事前訓練されたモデルの初期のレイヤを凍結し、ターゲットドメイン上の残りのレイヤを微調整することである。
本稿では,特徴距離の最小化によるモデル事前学習と,対象領域タスクに対する非拡張的微調整による事前学習により,協調的逆転変換学習(CARTL)を提案する。
論文 参考訳(メタデータ) (2021-06-12T02:29:55Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Minimax Lower Bounds for Transfer Learning with Linear and One-hidden
Layer Neural Networks [27.44348371795822]
転送学習の限界を特徴付けるための統計的ミニマックスフレームワークを開発する。
ラベル付きソース数とターゲットデータの関数として,任意のアルゴリズムで達成可能なターゲット一般化誤差に対して,低いバウンドを導出する。
論文 参考訳(メタデータ) (2020-06-16T22:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。