論文の概要: EraseDiff: Erasing Data Influence in Diffusion Models
- arxiv url: http://arxiv.org/abs/2401.05779v1
- Date: Thu, 11 Jan 2024 09:30:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 15:29:06.920206
- Title: EraseDiff: Erasing Data Influence in Diffusion Models
- Title(参考訳): EraseDiff:拡散モデルにおけるデータ影響の消去
- Authors: Jing Wu, Trung Le, Munawar Hayat, Mehrtash Harandi
- Abstract要約: データ保護規則と「忘れられる権利」に応えて,拡散モデルのための未学習アルゴリズムを導入する。
本アルゴリズムは,データ記憶に関する懸念を緩和する機構を備えた拡散モデルである。
実験では、クラス、属性、さらには顔とオブジェクトのデータセットからの競合の非学習を実演する。
- 参考スコア(独自算出の注目度): 54.95692559939673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In response to data protection regulations and the ``right to be forgotten'',
in this work, we introduce an unlearning algorithm for diffusion models. Our
algorithm equips a diffusion model with a mechanism to mitigate the concerns
related to data memorization. To achieve this, we formulate the unlearning
problem as a bi-level optimization problem, wherein the outer objective is to
preserve the utility of the diffusion model on the remaining data. The inner
objective aims to scrub the information associated with forgetting data by
deviating the learnable generative process from the ground-truth denoising
procedure. To solve the resulting bi-level problem, we adopt a first-order
method, having superior practical performance while being vigilant about the
diffusion process and solving a bi-level problem therein. Empirically, we
demonstrate that our algorithm can preserve the model utility, effectiveness,
and efficiency while removing across two widely-used diffusion models and in
both conditional and unconditional image generation scenarios. In our
experiments, we demonstrate the unlearning of classes, attributes, and even a
race from face and object datasets such as UTKFace, CelebA, CelebA-HQ, and
CIFAR10.
- Abstract(参考訳): 本研究では,データ保護規則と「忘れられる権利」に応答して,拡散モデルのための未学習アルゴリズムを提案する。
本アルゴリズムは,データ記憶に関する懸念を緩和する機構を備えた拡散モデルである。
そこで本研究では,未学習問題を二段階最適化問題として定式化し,残りのデータに対する拡散モデルの有用性を保つことを目的とする。
内部の目的は、学習可能な生成過程を接地発振手順から逸脱させることにより、データ忘れに関する情報を消去することである。
得られた二階問題の解法として,拡散過程を警戒しながら実用性に優れた一階法を採用し,二階問題を解く。
実験により,本アルゴリズムは2つの拡散モデルと条件付きおよび非条件画像生成シナリオにおいて,モデルの有用性,有効性,効率性を保たせることを示した。
実験では、UTKFace、CelebA、CelebA-HQ、CIFAR10といった顔とオブジェクトのデータセットから、クラス、属性、さらにはレースの未学習を実証した。
関連論文リスト
- Unsupervised Discovery of Interpretable Directions in h-space of
Pre-trained Diffusion Models [63.1637853118899]
本稿では,事前学習した拡散モデルのh空間における解釈可能な方向を特定するための,教師なしおよび学習に基づく最初の手法を提案する。
我々は、事前訓練された拡散モデルのh-スペースで動作するシフト制御モジュールを用いて、サンプルをシフトしたバージョンに操作する。
それらを共同で最適化することで、モデルは自然に絡み合った、解釈可能な方向を発見する。
論文 参考訳(メタデータ) (2023-10-15T18:44:30Z) - Fast Diffusion EM: a diffusion model for blind inverse problems with
application to deconvolution [0.0]
現在の手法では、劣化が知られており、復元と多様性の点で印象的な結果をもたらすと仮定している。
本研究では、これらのモデルの効率を活用し、復元された画像と未知のパラメータを共同で推定する。
本手法は,拡散モデルから抽出したサンプルを用いて,問題の対数類似度を近似し,未知のモデルパラメータを推定する方法とを交互に比較する。
論文 参考訳(メタデータ) (2023-09-01T06:47:13Z) - Solving Inverse Problems with Latent Diffusion Models via Hard Data Consistency [7.671153315762146]
画素空間におけるトレーニング拡散モデルは、データ集約的かつ計算的に要求される。
非常に低次元空間で動作する潜在拡散モデルは、これらの課題に対する解決策を提供する。
我々は,事前学習した潜在拡散モデルを用いて,一般的な逆問題を解決するアルゴリズムであるtextitReSampleを提案する。
論文 参考訳(メタデータ) (2023-07-16T18:42:01Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - CamoDiffusion: Camouflaged Object Detection via Conditional Diffusion
Models [72.93652777646233]
カモフラーゲ型物体検出(COD)は、カモフラーゲ型物体とその周囲の類似性が高いため、コンピュータビジョンにおいて難しい課題である。
本研究では,CODを拡散モデルを利用した条件付きマスク生成タスクとして扱う新しいパラダイムを提案する。
カモ拡散(CamoDiffusion)と呼ばれる本手法では,拡散モデルのデノナイズプロセスを用いてマスクの雑音を反復的に低減する。
論文 参考訳(メタデータ) (2023-05-29T07:49:44Z) - Two-stage Denoising Diffusion Model for Source Localization in Graph
Inverse Problems [19.57064597050846]
ソースローカライゼーションは、グラフ情報拡散の逆問題である。
本稿では,2段階最適化フレームワークであるソースローカライゼーション・デノナイズ拡散モデル(SL-Diff)を提案する。
SL-Diffは広範囲な実験で適切なサンプリング時間内に優れた予測結果が得られる。
論文 参考訳(メタデータ) (2023-04-18T09:11:09Z) - A Cheaper and Better Diffusion Language Model with Soft-Masked Noise [62.719656543880596]
Masked-Diffuse LMは言語モデリングのための新しい拡散モデルであり、言語の言語的特徴に触発されている。
具体的には,テキストデータのノイズを改善するために,戦略的ソフトマスキングによってテキストに劣化を加える言語情報処理を設計する。
我々は,我々のMasked-Diffuse LMが,高効率の最先端拡散モデルよりも優れた生成品質を達成できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:58:42Z) - Information-Theoretic Diffusion [18.356162596599436]
拡散モデルのデノイングは密度モデリングや画像生成において大きな進歩をもたらした。
情報理論における古典的な結果にインスパイアされた拡散モデルのための新しい数学的基礎を導入する。
論文 参考訳(メタデータ) (2023-02-07T23:03:07Z) - Diffusion models for missing value imputation in tabular data [10.599563005836066]
機械学習における値計算の欠落は、利用可能な情報を用いてデータセットの欠落値を正確に推定するタスクである。
本稿では,タブラルデータに対する連続スコアベース拡散モデル (CSDI_T) と呼ばれる拡散モデル手法を提案する。
分類変数と数値変数を同時に処理するために, ワンホット符号化, アナログビット符号化, 特徴トークン化という3つの手法を検討した。
論文 参考訳(メタデータ) (2022-10-31T08:13:26Z) - Truncated Diffusion Probabilistic Models and Diffusion-based Adversarial
Auto-Encoders [137.1060633388405]
拡散に基づく生成モデルは、逆拡散連鎖を推論してデータを生成する方法を学ぶ。
我々は、データが純粋なランダムノイズになるまで、より高速で安価にノイズを付加するアプローチを提案する。
提案手法は,拡散過程と学習可能な暗黙的前処理の両方によって付与された逆自動エンコーダとしてキャスト可能であることを示す。
論文 参考訳(メタデータ) (2022-02-19T20:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。