論文の概要: Selective Amnesia: A Continual Learning Approach to Forgetting in Deep
Generative Models
- arxiv url: http://arxiv.org/abs/2305.10120v1
- Date: Wed, 17 May 2023 10:53:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 16:26:43.917787
- Title: Selective Amnesia: A Continual Learning Approach to Forgetting in Deep
Generative Models
- Title(参考訳): Selective Amnesia: 深層生成モデル構築のための継続的な学習アプローチ
- Authors: Alvin Heng, Harold Soh
- Abstract要約: 我々は、事前学習された深層生成モデルの概念を選択的に忘れる連続学習にインスパイアされた手法を導出する。
提案手法はSelective Amnesiaと呼ばれ,ユーザがどのように概念を忘れるべきかを指定することで,制御可能な記憶を可能にする。
- 参考スコア(独自算出の注目度): 18.450245088463213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent proliferation of large-scale text-to-image models has led to
growing concerns that such models may be misused to generate harmful,
misleading, and inappropriate content. Motivated by this issue, we derive a
technique inspired by continual learning to selectively forget concepts in
pretrained deep generative models. Our method, dubbed Selective Amnesia,
enables controllable forgetting where a user can specify how a concept should
be forgotten. Selective Amnesia can be applied to conditional variational
likelihood models, which encompass a variety of popular deep generative
frameworks, including variational autoencoders and large-scale text-to-image
diffusion models. Experiments across different models demonstrate that our
approach induces forgetting on a variety of concepts, from entire classes in
standard datasets to celebrity and nudity prompts in text-to-image models. Our
code is publicly available at https://github.com/clear-nus/selective-amnesia.
- Abstract(参考訳): 近年の大規模テキストから画像へのモデルの普及により、有害で誤解を招く、不適切なコンテンツを生み出すために誤用される可能性があるという懸念が高まっている。
本稿では,事前学習した深層生成モデルの概念を選択的に忘れるために,連続学習に触発されたテクニックを導出する。
本手法は選択的記憶喪失と呼ばれ,ユーザがどのように概念を忘れるべきかを制御可能とする。
選択的アムネシアは、変分オートエンコーダや大規模テキストから画像への拡散モデルなど、様々な一般的な深層生成フレームワークを含む条件付き変分確率モデルに適用することができる。
異なるモデルによる実験により、標準データセットのクラス全体からテキストから画像へのモデルのセレブやヌードのプロンプトまで、さまざまな概念の忘れが引き起こされることが示された。
私たちのコードはhttps://github.com/clear-nus/selective-amnesiaで公開されています。
関連論文リスト
- Avoiding Generative Model Writer's Block With Embedding Nudging [8.3196702956302]
我々は、遅延拡散画像生成モデルと、それらがオーバーヘッドに制限された類似画像を生成しながら、それらが特定の画像を生成するのを防ぐ方法に焦点をあてる。
本手法は,修正されていないモデルと同等の画質と関連性を保ちながら,記憶されたトレーニング画像の生成を効果的に防止する。
論文 参考訳(メタデータ) (2024-08-28T00:07:51Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - All but One: Surgical Concept Erasing with Model Preservation in
Text-to-Image Diffusion Models [22.60023885544265]
大規模なデータセットには、性的に明示的な、著作権のある、または望ましくないコンテンツが含まれており、モデルがそれらを直接生成することができる。
拡散モデルにおける概念消去に取り組むために、ファインチューニングアルゴリズムが開発された。
これらの課題をすべて解決する新しいアプローチを提示します。
論文 参考訳(メタデータ) (2023-12-20T07:04:33Z) - Create Your World: Lifelong Text-to-Image Diffusion [75.14353789007902]
本稿では,過去の概念の「破滅的忘れ」を克服するために,ライフロングテキスト・画像拡散モデル(L2DM)を提案する。
我々のL2DMフレームワークは,知識の「破滅的忘れ」に関して,タスク対応メモリ拡張モジュールと弾性概念蒸留モジュールを考案している。
我々のモデルは、質的および定量的な指標の両方の観点から、連続的なテキストプロンプトの範囲にわたって、より忠実な画像を生成することができる。
論文 参考訳(メタデータ) (2023-09-08T16:45:56Z) - Circumventing Concept Erasure Methods For Text-to-Image Generative
Models [26.804057000265434]
テキストから画像への生成モデルは、非常に幅広い概念のフォトリアリスティック画像を生成することができる。
これらのモデルには、性的に明示的なコンテンツを特徴とする画像を生成する可能性など、多くの欠点がある。
テキスト・ツー・イメージ・モデルからセンシティブな概念を「取り除く」ための様々な手法が提案されている。
論文 参考訳(メタデータ) (2023-08-03T02:34:01Z) - Towards Safe Self-Distillation of Internet-Scale Text-to-Image Diffusion
Models [63.20512617502273]
テキストから画像への拡散モデルにおいて,問題のあるコンテンツ生成を防止するため,SDDと呼ばれる手法を提案する。
本手法は,画像の全体的な品質を劣化させることなく,生成した画像から有害なコンテンツをはるかに多く除去する。
論文 参考訳(メタデータ) (2023-07-12T07:48:29Z) - Training Diffusion Models with Reinforcement Learning [82.29328477109826]
拡散モデルは、ログのような目的に近似して訓練される。
本稿では,下流目的のための拡散モデルを直接最適化するための強化学習手法について検討する。
本稿では,多段階決定問題としてデノベーションを行うことによって,ポリシー勾配アルゴリズムのクラスを実現する方法について述べる。
論文 参考訳(メタデータ) (2023-05-22T17:57:41Z) - Forget-Me-Not: Learning to Forget in Text-to-Image Diffusion Models [79.50701155336198]
textbfForget-Me-Notは、適切に設定されたテキスト・ツー・イメージモデルから、指定されたID、オブジェクト、スタイルを30秒で安全に削除するように設計されている。
我々は,Forget-Me-Notが,モデルの性能を他の概念に保ちながら,ターゲットとなる概念を効果的に排除できることを実証した。
また、Stable Diffusionの軽量モデルパッチとして適応することができ、コンセプト操作と便利な配布を可能にしている。
論文 参考訳(メタデータ) (2023-03-30T17:58:11Z) - Freestyle Layout-to-Image Synthesis [42.64485133926378]
この研究では、モデルの自由なスタイルの能力、すなわち、与えられたレイアウト上に見知らぬセマンティクスをどの程度生成できるかを探索する。
これに触発されて、我々は、大規模事前訓練されたテキスト-画像拡散モデルを利用して、目に見えないセマンティクスを生成することを選んだ。
提案した拡散ネットワークは,テキスト入力を多用したリアルかつ自由なレイアウト・ツー・イメージ生成結果を生成する。
論文 参考訳(メタデータ) (2023-03-25T09:37:41Z) - Ablating Concepts in Text-to-Image Diffusion Models [57.9371041022838]
大規模テキスト・画像拡散モデルでは、強力な構成能力を持つ高忠実度画像を生成することができる。
これらのモデルは典型的には膨大な量のインターネットデータに基づいて訓練されており、しばしば著作権のある資料、ライセンスされた画像、個人写真を含んでいる。
本稿では,事前訓練されたモデルにおいて,目標概念の生成を防止し,効率的に概念を宣言する手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T17:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。