論文の概要: Model Will Tell: Training Membership Inference for Diffusion Models
- arxiv url: http://arxiv.org/abs/2403.08487v1
- Date: Wed, 13 Mar 2024 12:52:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 14:43:50.421118
- Title: Model Will Tell: Training Membership Inference for Diffusion Models
- Title(参考訳): モデルが語る:拡散モデルのためのトレーニングメンバーシップ推論
- Authors: Xiaomeng Fu, Xi Wang, Qiao Li, Jin Liu, Jiao Dai and Jizhong Han
- Abstract要約: トレーニングメンバーシップ推論(TMI)タスクは、ターゲットモデルのトレーニングプロセスで特定のサンプルが使用されているかどうかを判断することを目的としている。
本稿では,拡散モデル内における本質的な生成先行情報を活用することで,TMIタスクの新たな視点を探求する。
- 参考スコア(独自算出の注目度): 15.16244745642374
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models pose risks of privacy breaches and copyright disputes,
primarily stemming from the potential utilization of unauthorized data during
the training phase. The Training Membership Inference (TMI) task aims to
determine whether a specific sample has been used in the training process of a
target model, representing a critical tool for privacy violation verification.
However, the increased stochasticity inherent in diffusion renders traditional
shadow-model-based or metric-based methods ineffective when applied to
diffusion models. Moreover, existing methods only yield binary classification
labels which lack necessary comprehensibility in practical applications. In
this paper, we explore a novel perspective for the TMI task by leveraging the
intrinsic generative priors within the diffusion model. Compared with unseen
samples, training samples exhibit stronger generative priors within the
diffusion model, enabling the successful reconstruction of substantially
degraded training images. Consequently, we propose the Degrade Restore Compare
(DRC) framework. In this framework, an image undergoes sequential degradation
and restoration, and its membership is determined by comparing it with the
restored counterpart. Experimental results verify that our approach not only
significantly outperforms existing methods in terms of accuracy but also
provides comprehensible decision criteria, offering evidence for potential
privacy violations.
- Abstract(参考訳): 拡散モデルは、プライバシ侵害や著作権侵害のリスクを生じさせ、主にトレーニング期間中に不正なデータを潜在的に利用することに由来する。
トレーニングメンバーシップ推論(TMI)タスクは、特定のサンプルがターゲットモデルのトレーニングプロセスで使用されたかどうかを判断することを目的としており、プライバシー違反の検証のための重要なツールである。
しかし、拡散に固有の確率性の増加は、拡散モデルに適用した場合、従来のシャドウモデルまたはメートル法に基づく手法を非効率にする。
さらに、既存の手法では、実用上必要な理解性に欠けるバイナリ分類ラベルしか得られない。
本稿では,拡散モデルにおける本質的な生成先を生かして,TMIタスクの新たな視点を探求する。
未知のサンプルと比較して、トレーニングサンプルは拡散モデル内でより強力な生成前駆体を示し、実質的に劣化したトレーニングイメージの再構築を成功させる。
そこで本研究では,DEC(Degrade Restore Compare)フレームワークを提案する。
この枠組みでは、画像は逐次劣化・復元され、そのメンバーシップは、復元された画像と比較することによって決定される。
実験結果から,提案手法が既存の手法よりも精度的に優れているだけでなく,プライバシー侵害の証拠として,理解可能な判断基準も提供できることが確認された。
関連論文リスト
- Investigating and Defending Shortcut Learning in Personalized Diffusion Models [16.569765598914152]
ショートカット学習のレンズを通して、パーソナライズされた拡散モデルの微調整過程を詳しく調べる。
この微調整時のミスアライメントは、モデルがノイズパターンと識別子を関連付ける原因となり、性能が低下する。
提案手法は,まず画像に固有の意味的意味を潜時空間で認識する。
論文 参考訳(メタデータ) (2024-06-27T07:14:14Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - A Recycling Training Strategy for Medical Image Segmentation with
Diffusion Denoising Models [8.649603931882227]
拡散モデルのデノイングは、画像上に条件付きセグメンテーションマスクを生成することにより、画像セグメンテーションに応用されている。
本研究では, トレーニング戦略の改善に焦点をあて, 新たなリサイクル手法を提案する。
提案手法は,同一のネットワークアーキテクチャと計算予算とを公正に比較し,非拡散型教師付きトレーニングによるリサイクルベース拡散モデルの性能向上を図っている。
論文 参考訳(メタデータ) (2023-08-30T23:03:49Z) - A Probabilistic Fluctuation based Membership Inference Attack for Diffusion Models [32.15773300068426]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングセットに、モデルをクエリすることでレコードが存在するかどうかを特定する。
PFAMI(Probabilistic Fluctuation Assessing Membership Inference Attack)を提案する。
PFAMIは最高のベースラインと比較して攻撃成功率(ASR)を約27.9%向上させることができる。
論文 参考訳(メタデータ) (2023-08-23T14:00:58Z) - Diffusion Models for Image Restoration and Enhancement -- A
Comprehensive Survey [96.99328714941657]
本稿では,近年の拡散モデルに基づく画像復元手法について概観する。
我々は、赤外線とブラインド/現実世界の両方で拡散モデルを用いて、革新的なデザインを分類し、強調する。
本稿では,拡散モデルに基づくIRの今後の研究に向けた5つの可能性と課題を提案する。
論文 参考訳(メタデータ) (2023-08-18T08:40:38Z) - Exploiting Diffusion Prior for Real-World Image Super-Resolution [75.5898357277047]
本稿では,事前学習したテキスト・画像拡散モデルにカプセル化された事前知識を視覚的超解像に活用するための新しいアプローチを提案する。
時間認識エンコーダを用いることで、事前学習した合成モデルを変更することなく、有望な復元結果が得られる。
論文 参考訳(メタデータ) (2023-05-11T17:55:25Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Exploring Continual Learning of Diffusion Models [24.061072903897664]
拡散モデルの連続学習(CL)特性を評価する。
我々は,拡散の時間経過にまたがる多様な行動を示す,忘れのダイナミクスに関する洞察を提供する。
論文 参考訳(メタデータ) (2023-03-27T15:52:14Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [55.28436972267793]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。