論文の概要: Towards More Realistic Membership Inference Attacks on Large Diffusion
Models
- arxiv url: http://arxiv.org/abs/2306.12983v2
- Date: Thu, 16 Nov 2023 14:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 22:49:39.699799
- Title: Towards More Realistic Membership Inference Attacks on Large Diffusion
Models
- Title(参考訳): 大規模拡散モデルに対するより現実的なメンバーシップ推論攻撃に向けて
- Authors: Jan Dubi\'nski, Antoni Kowalczuk, Stanis{\l}aw Pawlak, Przemys{\l}aw
Rokita, Tomasz Trzci\'nski, Pawe{\l} Morawiecki
- Abstract要約: 安定拡散(Stable Diffusion)やミッドジャーニー(Midjourney)などの生成拡散モデルは、様々なアプリケーションに対して視覚的に魅力的で多様な高解像度の画像を生成することができる。
これらのモデルは、何十億ものインターネットソースイメージに基づいてトレーニングされており、著作権保護されたイメージの無許可使用に関する重大な懸念を提起している。
本稿では,サイバーセキュリティコミュニティで知られ,メンバシップ推論攻撃と呼ばれる,特定のイメージがトレーニングセットで使用されているかどうかを判断できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 13.327985433287477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative diffusion models, including Stable Diffusion and Midjourney, can
generate visually appealing, diverse, and high-resolution images for various
applications. These models are trained on billions of internet-sourced images,
raising significant concerns about the potential unauthorized use of
copyright-protected images. In this paper, we examine whether it is possible to
determine if a specific image was used in the training set, a problem known in
the cybersecurity community and referred to as a membership inference attack.
Our focus is on Stable Diffusion, and we address the challenge of designing a
fair evaluation framework to answer this membership question. We propose a
methodology to establish a fair evaluation setup and apply it to Stable
Diffusion, enabling potential extensions to other generative models. Utilizing
this evaluation setup, we execute membership attacks (both known and newly
introduced). Our research reveals that previously proposed evaluation setups do
not provide a full understanding of the effectiveness of membership inference
attacks. We conclude that the membership inference attack remains a significant
challenge for large diffusion models (often deployed as black-box systems),
indicating that related privacy and copyright issues will persist in the
foreseeable future.
- Abstract(参考訳): 安定拡散やミッドジャーニーを含む生成拡散モデルでは、様々な用途で視覚的に魅力的で多彩で高解像度な画像を生成することができる。
これらのモデルは、数十億ものインターネットソースイメージに基づいてトレーニングされ、著作権保護された画像の潜在的無許可使用に関する大きな懸念を提起する。
本稿では,特定のイメージがトレーニングセットで使用されたか,サイバーセキュリティコミュニティで知られ,メンバシップ推論攻撃として言及されているかを決定することができるかを検討する。
我々の焦点は安定拡散であり、このメンバーシップ問題に答えるために公正な評価フレームワークを設計することの課題に対処する。
本稿では,公平な評価設定を確立して安定拡散に適用し,他の生成モデルへの潜在的な拡張を可能にする手法を提案する。
この評価設定を利用して、メンバシップアタック(既知のものと新たに導入されたものの両方)を実行します。
本研究は,提案手法がメンバシップ推論攻撃の有効性を完全に理解していないことを明らかにする。
会員推測攻撃は、大きな拡散モデル(しばしばブラックボックスシステムとして展開される)にとって重要な課題であり、関連するプライバシーと著作権の問題は、当面続くと結論付けている。
関連論文リスト
- On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [49.60774626839712]
マルチモーダル生成モデルは 彼らの公正さ、信頼性、そして誤用の可能性について 批判的な議論を呼んだ
組込み空間における摂動に対する応答を通じてモデルの信頼性を評価するための評価フレームワークを提案する。
本手法は, 信頼できない, バイアス注入されたモデルを検出し, バイアス前駆体の検索を行うための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Concept Arithmetics for Circumventing Concept Inhibition in Diffusion Models [58.065255696601604]
拡散モデルの合成特性を使い、単一の画像生成において複数のプロンプトを利用することができる。
本論では, 画像生成の可能なすべてのアプローチを, 相手が適用可能な拡散モデルで検討することが重要であると論じる。
論文 参考訳(メタデータ) (2024-04-21T16:35:16Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - Revealing Vulnerabilities in Stable Diffusion via Targeted Attacks [41.531913152661296]
本稿では,安定拡散に対する標的対向攻撃の問題を定式化し,対向的プロンプトを生成するための枠組みを提案する。
具体的には、安定した拡散を誘導し、特定の画像を生成するための信頼性の高い逆プロンプトを構築するために、勾配に基づく埋め込み最適化を設計する。
逆方向のプロンプトを成功させた後、モデルの脆弱性を引き起こすメカニズムを明らかにする。
論文 参考訳(メタデータ) (2024-01-16T12:15:39Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Privacy Threats in Stable Diffusion Models [0.7366405857677227]
本稿では,安定拡散コンピュータビジョンモデルを対象としたMIA(Message Inference attack)の新たなアプローチを提案する。
MIAは、モデルのトレーニングデータに関する機密情報を抽出することを目的としており、重要なプライバシー上の懸念を呈している。
被害者モデルに繰り返し問い合わせるだけでよいブラックボックスMIAを考案する。
論文 参考訳(メタデータ) (2023-11-15T20:31:40Z) - Ring-A-Bell! How Reliable are Concept Removal Methods for Diffusion Models? [52.238883592674696]
Ring-A-Bellは、T2I拡散モデルのためのモデルに依存しないレッドチームツールである。
これは、不適切なコンテンツの生成に対応する拡散モデルに対する問題的プロンプトを特定する。
この結果から,安全プロンプトベンチマークの操作により,既存の安全メカニズムを回避できると考えられるプロンプトを変換できることが示唆された。
論文 参考訳(メタデータ) (2023-10-16T02:11:20Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。