論文の概要: Membership Inference Attacks Against Text-to-image Generation Models
- arxiv url: http://arxiv.org/abs/2210.00968v1
- Date: Mon, 3 Oct 2022 14:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 17:49:34.667483
- Title: Membership Inference Attacks Against Text-to-image Generation Models
- Title(参考訳): テキスト・画像生成モデルに対するメンバーシップ推論攻撃
- Authors: Yixin Wu and Ning Yu and Zheng Li and Michael Backes and Yang Zhang
- Abstract要約: 本稿では,メンバシップ推論のレンズを用いたテキスト・画像生成モデルの最初のプライバシ解析を行う。
本稿では,メンバーシップ情報に関する3つの重要な直観と,それに応じて4つの攻撃手法を設計する。
提案した攻撃はいずれも大きな性能を達成でき、場合によっては精度が1に近い場合もあり、既存のメンバーシップ推論攻撃よりもはるかに深刻なリスクとなる。
- 参考スコア(独自算出の注目度): 23.39695974954703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image generation models have recently attracted unprecedented
attention as they unlatch imaginative applications in all areas of life.
However, developing such models requires huge amounts of data that might
contain privacy-sensitive information, e.g., face identity. While privacy risks
have been extensively demonstrated in the image classification and GAN
generation domains, privacy risks in the text-to-image generation domain are
largely unexplored. In this paper, we perform the first privacy analysis of
text-to-image generation models through the lens of membership inference.
Specifically, we propose three key intuitions about membership information and
design four attack methodologies accordingly. We conduct comprehensive
evaluations on two mainstream text-to-image generation models including
sequence-to-sequence modeling and diffusion-based modeling. The empirical
results show that all of the proposed attacks can achieve significant
performance, in some cases even close to an accuracy of 1, and thus the
corresponding risk is much more severe than that shown by existing membership
inference attacks. We further conduct an extensive ablation study to analyze
the factors that may affect the attack performance, which can guide developers
and researchers to be alert to vulnerabilities in text-to-image generation
models. All these findings indicate that our proposed attacks pose a realistic
privacy threat to the text-to-image generation models.
- Abstract(参考訳): テキストから画像への生成モデルは最近、あらゆる分野の想像上の応用をラッチせず、前例のない注目を集めている。
しかし、そのようなモデルの開発には、プライバシーに敏感な情報を含む膨大なデータが必要になる。
画像分類やGAN生成ドメインでは、プライバシのリスクが広く実証されているが、テキスト・ツー・画像生成ドメインのプライバシのリスクはほとんど解明されていない。
本稿では,メンバシップ推論のレンズを通して,テキスト対画像生成モデルのプライバシ解析を行う。
具体的には,メンバーシップ情報に関する3つの重要な直感と,それに応じて4つの攻撃手法を設計する。
シーケンス・ツー・シーケンス・モデリングと拡散ベース・モデリングを含む2つの主要テキスト・画像生成モデルについて包括的評価を行う。
実験結果から, 提案した攻撃はいずれも, 精度が1に近い場合もあれば, 高い性能を達成できることが示唆された。
さらに,攻撃性能に影響を及ぼす要因を分析するために,広範なアブレーション研究を行い,開発者や研究者がテキストから画像への生成モデルの脆弱性に対して警告を受けるよう指導する。
これらの結果から,提案する攻撃がテキスト対画像生成モデルに現実的なプライバシの脅威をもたらすことが示唆された。
関連論文リスト
- Six-CD: Benchmarking Concept Removals for Benign Text-to-image Diffusion Models [58.74606272936636]
テキスト・ツー・イメージ(T2I)拡散モデルは、テキスト・プロンプトと密接に対応した画像を生成する際、例外的な機能を示す。
モデルは、暴力やヌードの画像を生成したり、不適切な文脈で公共の人物の無許可の肖像画を作成するなど、悪意ある目的のために利用することができる。
悪質な概念や望ましくない概念の発生を防ぐために拡散モデルを変更する概念除去法が提案されている。
論文 参考訳(メタデータ) (2024-06-21T03:58:44Z) - Anonymization Prompt Learning for Facial Privacy-Preserving Text-to-Image Generation [56.46932751058042]
我々は、テキストから画像への拡散モデルのための学習可能なプロンプトプレフィックスをトレーニングし、匿名化された顔のアイデンティティを生成するよう強制する。
実験では,非同一性固有の画像生成の品質を損なうことなく,特定の個人を匿名化するAPLの匿名化性能を実証した。
論文 参考訳(メタデータ) (2024-05-27T07:38:26Z) - ART: Automatic Red-teaming for Text-to-Image Models to Protect Benign Users [18.3621509910395]
そこで本研究では,テキスト・ツー・イメージ・モデルの安全性を評価するために,新しい自動レッド・チーム・フレームワークARTを提案する。
包括的実験により、人気のあるオープンソーステキスト・ツー・イメージモデルの毒性を明らかにする。
また、テキスト・ツー・イメージ・モデルに関連する安全性リスクを研究するために、大規模な3つの赤チームデータセットも導入する。
論文 参考訳(メタデータ) (2024-05-24T07:44:27Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Evaluating Text-to-Image Generative Models: An Empirical Study on Human Image Synthesis [21.619269792415903]
本稿では,テキスト・ツー・イメージ(T2I)生成モデルのためのニュアンス評価フレームワークを提案する。
まず,美学やリアリズムといったイメージの質に着目し,第2に,概念的カバレッジと公平性を通じてテキスト条件を検証した。
論文 参考訳(メタデータ) (2024-03-08T07:41:47Z) - Membership Inference Attacks and Privacy in Topic Modeling [3.503833571450681]
トレーニングデータのメンバーを確実に識別できるトピックモデルに対する攻撃を提案する。
本稿では,DP語彙選択を前処理ステップとして組み込んだプライベートトピックモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-07T12:43:42Z) - Limitations of Face Image Generation [12.11955119100926]
顔生成における生成モデルの有効性と欠点について検討した。
テキストプロンプトへの忠実度、人口格差、分布変化など、顔画像生成のいくつかの制限を識別する。
本稿では、学習データの選択が生成モデルの性能にどのように貢献するかを洞察する分析モデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T19:33:26Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。