論文の概要: Adapt then Unlearn: Exploiting Parameter Space Semantics for Unlearning
in Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2309.14054v1
- Date: Mon, 25 Sep 2023 11:36:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 16:03:03.796912
- Title: Adapt then Unlearn: Exploiting Parameter Space Semantics for Unlearning
in Generative Adversarial Networks
- Title(参考訳): adapt then unlearn: 生成型adversarial networkにおけるunlearningのためのパラメータ空間セマンティクスの利用
- Authors: Piyush Tiwary, Atri Guha, Subhodip Panda, Prathosh A.P
- Abstract要約: GANのパラメータ空間は、特定の望ましくない特徴を抑えるために活用できる有意義な方向を示す。
提案手法は「Adapt-then-Unlearn」と呼ばれ、望ましくない特徴を学習すると同時に、生成したサンプルの品質も維持する。
本手法は,初期段階において,ユーザが提供した負のサンプルを用いて事前学習したGANを適応させ,その後段階において,望ましくない特徴を学習することに集中する。
- 参考スコア(独自算出の注目度): 5.479797073162603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increased attention to regulating the outputs of deep generative models,
driven by growing concerns about privacy and regulatory compliance, has
highlighted the need for effective control over these models. This necessity
arises from instances where generative models produce outputs containing
undesirable, offensive, or potentially harmful content. To tackle this
challenge, the concept of machine unlearning has emerged, aiming to forget
specific learned information or to erase the influence of undesired data
subsets from a trained model. The objective of this work is to prevent the
generation of outputs containing undesired features from a pre-trained GAN
where the underlying training data set is inaccessible. Our approach is
inspired by a crucial observation: the parameter space of GANs exhibits
meaningful directions that can be leveraged to suppress specific undesired
features. However, such directions usually result in the degradation of the
quality of generated samples. Our proposed method, known as
'Adapt-then-Unlearn,' excels at unlearning such undesirable features while also
maintaining the quality of generated samples. This method unfolds in two
stages: in the initial stage, we adapt the pre-trained GAN using negative
samples provided by the user, while in the subsequent stage, we focus on
unlearning the undesired feature. During the latter phase, we train the
pre-trained GAN using positive samples, incorporating a repulsion regularizer.
This regularizer encourages the model's parameters to be away from the
parameters associated with the adapted model from the first stage while also
maintaining the quality of generated samples. To the best of our knowledge, our
approach stands as first method addressing unlearning in GANs. We validate the
effectiveness of our method through comprehensive experiments.
- Abstract(参考訳): プライバシーや規制の遵守に関する懸念が高まる中、深層生成モデルのアウトプットの規制への注意が高まり、これらのモデルに対する効果的な制御の必要性が強調されている。
この必要性は、生成モデルが望ましくない、攻撃的、潜在的に有害な内容を含む出力を生成する事例から生じる。
この課題に取り組むために、特定の学習情報を忘れたり、訓練されたモデルから望ましくないデータサブセットの影響を消すことを目的とした、機械学習の概念が登場した。
本研究の目的は、基礎となるトレーニングデータセットがアクセスできない事前学習されたGANから、望ましくない特徴を含む出力の発生を防止することである。
GANのパラメータ空間は、特定の望ましくない特徴を抑えるために活用できる有意義な方向を示す。
しかし、そのような方向は通常、生成されたサンプルの品質が劣化する。
提案手法は,「adapt-then-unlearn」として知られ,望ましくない特徴を学習すると同時に,生成したサンプルの品質を維持する。
本手法は,初期段階において,ユーザが提供した負のサンプルを用いて事前学習したGANを適応させ,その後段階において,望ましくない特徴を学習することに集中する。
後者の段階では、正サンプルを用いて事前訓練したGANをトレーニングし、反発正則化器を組み込んだ。
この正規化器は、モデルパラメータを適応モデルに関連するパラメータから第一段階から遠ざけ、生成したサンプルの品質を維持します。
私たちの知る限りでは、私たちのアプローチはganで未学習を扱う最初の方法です。
本手法の有効性を総合実験により検証した。
関連論文リスト
- Upweighting Easy Samples in Fine-Tuning Mitigates Forgetting [15.251425165987987]
下流タスクで事前訓練されたモデルを微調整すると、元の能力は劣化することが多い。
本稿では,事前学習したモデルの損失に基づく微調整データのサンプル重み付け手法を提案する。
我々は,言語と視覚の両方における手法の有効性を実証的に実証した。
論文 参考訳(メタデータ) (2025-02-05T00:49:59Z) - Data Adaptive Traceback for Vision-Language Foundation Models in Image Classification [34.37262622415682]
我々はData Adaptive Tracebackと呼ばれる新しい適応フレームワークを提案する。
具体的には、ゼロショット法を用いて、事前学習データの最もダウンストリームなタスク関連サブセットを抽出する。
我々は、擬似ラベルに基づく半教師付き手法を採用し、事前学習画像の再利用と、半教師付き学習における確証バイアス問題に対処するための視覚言語コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T18:01:58Z) - Adaptive Retention & Correction: Test-Time Training for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Generator Born from Classifier [66.56001246096002]
データサンプルに頼ることなく、イメージジェネレータを再構築することを目指している。
本稿では,ネットワークパラメータの収束条件を満たすために,ジェネレータを訓練する新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-12-05T03:41:17Z) - Progressive Feature Adjustment for Semi-supervised Learning from
Pretrained Models [39.42802115580677]
半教師付き学習(SSL)はラベル付きデータとラベルなしデータの両方を利用して予測モデルを構築することができる。
近年の文献では、事前訓練されたモデルで最先端のSSLを適用しても、トレーニングデータの潜在能力を最大限に発揮できないことが示唆されている。
本稿では,ラベルの誤りに敏感でない特徴抽出器を更新するために,非ラベルデータから擬似ラベルを使用することを提案する。
論文 参考訳(メタデータ) (2023-09-09T01:57:14Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。