論文の概要: Membership Inference Attacks Against Text-to-image Generation Models
- arxiv url: http://arxiv.org/abs/2210.00968v1
- Date: Mon, 3 Oct 2022 14:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 17:49:34.667483
- Title: Membership Inference Attacks Against Text-to-image Generation Models
- Title(参考訳): テキスト・画像生成モデルに対するメンバーシップ推論攻撃
- Authors: Yixin Wu and Ning Yu and Zheng Li and Michael Backes and Yang Zhang
- Abstract要約: 本稿では,メンバシップ推論のレンズを用いたテキスト・画像生成モデルの最初のプライバシ解析を行う。
本稿では,メンバーシップ情報に関する3つの重要な直観と,それに応じて4つの攻撃手法を設計する。
提案した攻撃はいずれも大きな性能を達成でき、場合によっては精度が1に近い場合もあり、既存のメンバーシップ推論攻撃よりもはるかに深刻なリスクとなる。
- 参考スコア(独自算出の注目度): 23.39695974954703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image generation models have recently attracted unprecedented
attention as they unlatch imaginative applications in all areas of life.
However, developing such models requires huge amounts of data that might
contain privacy-sensitive information, e.g., face identity. While privacy risks
have been extensively demonstrated in the image classification and GAN
generation domains, privacy risks in the text-to-image generation domain are
largely unexplored. In this paper, we perform the first privacy analysis of
text-to-image generation models through the lens of membership inference.
Specifically, we propose three key intuitions about membership information and
design four attack methodologies accordingly. We conduct comprehensive
evaluations on two mainstream text-to-image generation models including
sequence-to-sequence modeling and diffusion-based modeling. The empirical
results show that all of the proposed attacks can achieve significant
performance, in some cases even close to an accuracy of 1, and thus the
corresponding risk is much more severe than that shown by existing membership
inference attacks. We further conduct an extensive ablation study to analyze
the factors that may affect the attack performance, which can guide developers
and researchers to be alert to vulnerabilities in text-to-image generation
models. All these findings indicate that our proposed attacks pose a realistic
privacy threat to the text-to-image generation models.
- Abstract(参考訳): テキストから画像への生成モデルは最近、あらゆる分野の想像上の応用をラッチせず、前例のない注目を集めている。
しかし、そのようなモデルの開発には、プライバシーに敏感な情報を含む膨大なデータが必要になる。
画像分類やGAN生成ドメインでは、プライバシのリスクが広く実証されているが、テキスト・ツー・画像生成ドメインのプライバシのリスクはほとんど解明されていない。
本稿では,メンバシップ推論のレンズを通して,テキスト対画像生成モデルのプライバシ解析を行う。
具体的には,メンバーシップ情報に関する3つの重要な直感と,それに応じて4つの攻撃手法を設計する。
シーケンス・ツー・シーケンス・モデリングと拡散ベース・モデリングを含む2つの主要テキスト・画像生成モデルについて包括的評価を行う。
実験結果から, 提案した攻撃はいずれも, 精度が1に近い場合もあれば, 高い性能を達成できることが示唆された。
さらに,攻撃性能に影響を及ぼす要因を分析するために,広範なアブレーション研究を行い,開発者や研究者がテキストから画像への生成モデルの脆弱性に対して警告を受けるよう指導する。
これらの結果から,提案する攻撃がテキスト対画像生成モデルに現実的なプライバシの脅威をもたらすことが示唆された。
関連論文リスト
- Membership Inference Attacks and Privacy in Topic Modeling [3.9379577980832843]
トレーニングデータのメンバーを確実に識別できるトピックモデルに対する攻撃を提案する。
本稿では,DP語彙選択を前処理ステップとして組み込んだプライベートトピックモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-07T12:43:42Z) - Language Agents for Detecting Implicit Stereotypes in Text-to-image
Models at Scale [45.64096601242646]
テキスト・ツー・イメージモデルにおけるステレオタイプ検出に適した新しいエージェントアーキテクチャを提案する。
複数のオープンテキストデータセットに基づいたステレオタイプ関連ベンチマークを構築した。
これらのモデルは、個人的特性に関する特定のプロンプトに関して、深刻なステレオタイプを示すことが多い。
論文 参考訳(メタデータ) (2023-10-18T08:16:29Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - Limitations of Face Image Generation [12.11955119100926]
顔生成における生成モデルの有効性と欠点について検討した。
テキストプロンプトへの忠実度、人口格差、分布変化など、顔画像生成のいくつかの制限を識別する。
本稿では、学習データの選択が生成モデルの性能にどのように貢献するかを洞察する分析モデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T19:33:26Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。