論文の概要: EraseDiff: Erasing Data Influence in Diffusion Models
- arxiv url: http://arxiv.org/abs/2401.05779v3
- Date: Sun, 28 Jul 2024 10:00:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 00:16:53.122461
- Title: EraseDiff: Erasing Data Influence in Diffusion Models
- Title(参考訳): EraseDiff:拡散モデルにおけるデータ影響の消去
- Authors: Jing Wu, Trung Le, Munawar Hayat, Mehrtash Harandi,
- Abstract要約: データ記憶に関する問題に対処する未学習アルゴリズムであるEraseDiffを導入する。
提案手法は,非学習課題を制約付き最適化問題として定式化する。
本稿では,EraseDiffがモデルの有用性,有効性,効率を効果的に維持していることを示す。
- 参考スコア(独自算出の注目度): 51.225365010401006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce EraseDiff, an unlearning algorithm designed for diffusion models to address concerns related to data memorization. Our approach formulates the unlearning task as a constrained optimization problem, aiming to preserve the utility of the diffusion model on retained data while removing the information associated with the data to be forgotten. This is achieved by altering the generative process to deviate away from the ground-truth denoising procedure. To manage the computational complexity inherent in the diffusion process, we develop a first-order method for solving the optimization problem, which has shown empirical benefits. Extensive experiments and thorough comparisons with state-of-the-art algorithms demonstrate that EraseDiff effectively preserves the model's utility, efficacy, and efficiency.
- Abstract(参考訳): 本稿では,データ記憶に関する問題に対処するために,拡散モデルのための未学習アルゴリズムであるEraseDiffを紹介する。
提案手法は,非学習課題を制約付き最適化問題として定式化し,保持データに対する拡散モデルの実用性を維持しつつ,忘れられるデータに関連する情報を除去することを目的とする。
これは、生成過程を変更して、地道な装飾手順から逸脱させることによって達成される。
拡散過程に固有の計算複雑性を管理するため,最適化問題を解く一階法を開発した。
大規模な実験と最先端のアルゴリズムとの徹底的な比較は、EraseDiffがモデルの有用性、有効性、効率を効果的に維持していることを示している。
関連論文リスト
- Mixed geometry information regularization for image multiplicative denoising [12.43943610396014]
本稿では,変分モデルによる乗法的ガンマ分解問題の解法に焦点をあてる。
本稿では,これらの問題を克服するために,領域幾何学用語と曲率項を先行知識として取り入れた混合情報モデルを提案する。
論文 参考訳(メタデータ) (2024-12-21T02:24:42Z) - Efficient Fine-Tuning and Concept Suppression for Pruned Diffusion Models [93.76814568163353]
本稿では,2段階の拡散モデルに対する新しい最適化フレームワークを提案する。
このフレームワークは、微調整と未学習のプロセスを統一的なフェーズに統合する。
様々なプルーニングや概念未学習の手法と互換性がある。
論文 参考訳(メタデータ) (2024-12-19T19:13:18Z) - Iso-Diffusion: Improving Diffusion Probabilistic Models Using the Isotropy of the Additive Gaussian Noise [0.0]
本稿では、DDPMの忠実度を高めるために、目的関数の制約として添加音の等方性を利用する方法を示す。
我々のアプローチは単純であり、DDPMの変種にも適用できる。
論文 参考訳(メタデータ) (2024-03-25T14:05:52Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Unlearnable Examples for Diffusion Models: Protect Data from Unauthorized Exploitation [25.55296442023984]
本研究では,不正な利用から画像を保護するために,Unlearnable Diffusion Perturbationを提案する。
この成果は、AI生成コンテンツに対するプライバシーと著作権の保護に寄与するため、現実世界のシナリオにおいて重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-02T20:19:19Z) - dugMatting: Decomposed-Uncertainty-Guided Matting [83.71273621169404]
そこで本稿では, 明確に分解された不確かさを探索し, 効率よく効率よく改善する, 分解不確実性誘導型マッチングアルゴリズムを提案する。
提案したマッチングフレームワークは,シンプルで効率的なラベリングを用いて対話領域を決定する必要性を緩和する。
論文 参考訳(メタデータ) (2023-06-02T11:19:50Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Differentiable Causal Discovery from Interventional Data [141.41931444927184]
本稿では、介入データを活用可能なニューラルネットワークに基づく理論的基盤化手法を提案する。
提案手法は,様々な環境下での美術品の状態と良好に比較できることを示す。
論文 参考訳(メタデータ) (2020-07-03T15:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。