論文の概要: EraseDiff: Erasing Data Influence in Diffusion Models
- arxiv url: http://arxiv.org/abs/2401.05779v1
- Date: Thu, 11 Jan 2024 09:30:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 15:29:06.920206
- Title: EraseDiff: Erasing Data Influence in Diffusion Models
- Title(参考訳): EraseDiff:拡散モデルにおけるデータ影響の消去
- Authors: Jing Wu, Trung Le, Munawar Hayat, Mehrtash Harandi
- Abstract要約: データ保護規則と「忘れられる権利」に応えて,拡散モデルのための未学習アルゴリズムを導入する。
本アルゴリズムは,データ記憶に関する懸念を緩和する機構を備えた拡散モデルである。
実験では、クラス、属性、さらには顔とオブジェクトのデータセットからの競合の非学習を実演する。
- 参考スコア(独自算出の注目度): 54.95692559939673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In response to data protection regulations and the ``right to be forgotten'',
in this work, we introduce an unlearning algorithm for diffusion models. Our
algorithm equips a diffusion model with a mechanism to mitigate the concerns
related to data memorization. To achieve this, we formulate the unlearning
problem as a bi-level optimization problem, wherein the outer objective is to
preserve the utility of the diffusion model on the remaining data. The inner
objective aims to scrub the information associated with forgetting data by
deviating the learnable generative process from the ground-truth denoising
procedure. To solve the resulting bi-level problem, we adopt a first-order
method, having superior practical performance while being vigilant about the
diffusion process and solving a bi-level problem therein. Empirically, we
demonstrate that our algorithm can preserve the model utility, effectiveness,
and efficiency while removing across two widely-used diffusion models and in
both conditional and unconditional image generation scenarios. In our
experiments, we demonstrate the unlearning of classes, attributes, and even a
race from face and object datasets such as UTKFace, CelebA, CelebA-HQ, and
CIFAR10.
- Abstract(参考訳): 本研究では,データ保護規則と「忘れられる権利」に応答して,拡散モデルのための未学習アルゴリズムを提案する。
本アルゴリズムは,データ記憶に関する懸念を緩和する機構を備えた拡散モデルである。
そこで本研究では,未学習問題を二段階最適化問題として定式化し,残りのデータに対する拡散モデルの有用性を保つことを目的とする。
内部の目的は、学習可能な生成過程を接地発振手順から逸脱させることにより、データ忘れに関する情報を消去することである。
得られた二階問題の解法として,拡散過程を警戒しながら実用性に優れた一階法を採用し,二階問題を解く。
実験により,本アルゴリズムは2つの拡散モデルと条件付きおよび非条件画像生成シナリオにおいて,モデルの有用性,有効性,効率性を保たせることを示した。
実験では、UTKFace、CelebA、CelebA-HQ、CIFAR10といった顔とオブジェクトのデータセットから、クラス、属性、さらにはレースの未学習を実証した。
関連論文リスト
- Diffusion Models as Optimizers for Efficient Planning in Offline RL [47.0835433289033]
拡散モデルはオフラインの強化学習タスクにおいて強い競争力を示している。
本稿では,より高速な自己回帰モデルを提案する。
これにより、能力を犠牲にすることなく、より効率的な計画を達成することができます。
論文 参考訳(メタデータ) (2024-07-23T03:00:01Z) - Unleashing the Denoising Capability of Diffusion Prior for Solving Inverse Problems [26.134240531687453]
ProjDiffアルゴリズムは、最適化フレームワーク内で事前学習された拡散モデルの事前情報と復調能力を利用する。
画像復元タスクとソース分離および部分生成タスクの実験により、ProjDiffは様々な線形および非線形逆問題に対して優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2024-06-11T05:35:18Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - The Missing U for Efficient Diffusion Models [3.712196074875643]
拡散確率モデル(Diffusion Probabilistic Models)は、画像合成、ビデオ生成、分子設計などのタスクにおいて、記録破りのパフォーマンスをもたらす。
それらの能力にもかかわらず、その効率、特に逆過程では、収束速度が遅いことと計算コストが高いため、依然として課題である。
本研究では,連続力学系を利用した拡散モデルのための新しいデノナイジングネットワークの設計手法を提案する。
論文 参考訳(メタデータ) (2023-10-31T00:12:14Z) - Unlearnable Examples for Diffusion Models: Protect Data from Unauthorized Exploitation [25.55296442023984]
本研究では,不正な利用から画像を保護するために,Unlearnable Diffusion Perturbationを提案する。
この成果は、AI生成コンテンツに対するプライバシーと著作権の保護に寄与するため、現実世界のシナリオにおいて重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-02T20:19:19Z) - dugMatting: Decomposed-Uncertainty-Guided Matting [83.71273621169404]
そこで本稿では, 明確に分解された不確かさを探索し, 効率よく効率よく改善する, 分解不確実性誘導型マッチングアルゴリズムを提案する。
提案したマッチングフレームワークは,シンプルで効率的なラベリングを用いて対話領域を決定する必要性を緩和する。
論文 参考訳(メタデータ) (2023-06-02T11:19:50Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Differentiable Causal Discovery from Interventional Data [141.41931444927184]
本稿では、介入データを活用可能なニューラルネットワークに基づく理論的基盤化手法を提案する。
提案手法は,様々な環境下での美術品の状態と良好に比較できることを示す。
論文 参考訳(メタデータ) (2020-07-03T15:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。