論文の概要: Silent Branding Attack: Trigger-free Data Poisoning Attack on Text-to-Image Diffusion Models
- arxiv url: http://arxiv.org/abs/2503.09669v1
- Date: Wed, 12 Mar 2025 17:21:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:55:04.757505
- Title: Silent Branding Attack: Trigger-free Data Poisoning Attack on Text-to-Image Diffusion Models
- Title(参考訳): 無作為なブランディング攻撃:テキストと画像の拡散モデルにおけるトリガーフリーなデータ中毒攻撃
- Authors: Sangwon Jang, June Suk Choi, Jaehyeong Jo, Kimin Lee, Sung Ju Hwang,
- Abstract要約: 本稿では,テキストから画像への拡散モデルを操作する新しいデータ中毒手法であるSilent Branding Attackを紹介する。
トレーニングデータに特定の視覚パターンが繰り返し現れると、モデルはその出力で自然にそれを再現することを学ぶ。
我々は、ロゴを元の画像に不当に注入し、自然にブレンドし、検出されないようにする自動データ中毒アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 61.56740897898055
- License:
- Abstract: Text-to-image diffusion models have achieved remarkable success in generating high-quality contents from text prompts. However, their reliance on publicly available data and the growing trend of data sharing for fine-tuning make these models particularly vulnerable to data poisoning attacks. In this work, we introduce the Silent Branding Attack, a novel data poisoning method that manipulates text-to-image diffusion models to generate images containing specific brand logos or symbols without any text triggers. We find that when certain visual patterns are repeatedly in the training data, the model learns to reproduce them naturally in its outputs, even without prompt mentions. Leveraging this, we develop an automated data poisoning algorithm that unobtrusively injects logos into original images, ensuring they blend naturally and remain undetected. Models trained on this poisoned dataset generate images containing logos without degrading image quality or text alignment. We experimentally validate our silent branding attack across two realistic settings on large-scale high-quality image datasets and style personalization datasets, achieving high success rates even without a specific text trigger. Human evaluation and quantitative metrics including logo detection show that our method can stealthily embed logos.
- Abstract(参考訳): テキスト間拡散モデルはテキストプロンプトから高品質なコンテンツを生成することに成功している。
しかし、公開データへの依存と微調整のためのデータ共有の傾向は、これらのモデルを特にデータ中毒攻撃に弱いものにしている。
本研究では,テキストから画像への拡散モデルを操作する新しいデータ中毒手法であるサイレント・ブランディング・アタック(Silent Branding Attack)を紹介し,テキストトリガーを使わずに,特定のブランドロゴやシンボルを含む画像を生成する。
トレーニングデータに特定の視覚パターンが繰り返し存在する場合、モデルが即座に言及することなく、その出力で自然にそれを再現することを学ぶ。
これを活用することで、ロゴを元の画像に控えめに注入する自動データ中毒アルゴリズムを開発し、それらが自然にブレンドされ、検出されないようにする。
この有毒データセットでトレーニングされたモデルは、画像の品質やテキストアライメントを低下させることなく、ロゴを含む画像を生成する。
大規模な高品質な画像データセットとスタイルのパーソナライズデータセットの2つの現実的な設定におけるサイレントブランディング攻撃を実験的に検証し、特定のテキストトリガを使わずに高い成功率を達成する。
ロゴ検出を含む人間の評価と定量的指標から,我々の手法がロゴを密かに埋め込むことができることが示された。
関連論文リスト
- Exploiting Watermark-Based Defense Mechanisms in Text-to-Image Diffusion Models for Unauthorized Data Usage [14.985938758090763]
安定拡散のようなテキストと画像の拡散モデルは、高品質な画像を生成するのに例外的な可能性を示している。
近年の研究では、これらのモデルのトレーニングに不正データを使用することが懸念されており、知的財産権侵害やプライバシー侵害につながる可能性がある。
本稿では、拡散過程を利用して保護された入力に対して制御された画像を生成するRATTANを提案する。
論文 参考訳(メタデータ) (2024-11-22T22:28:19Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Improving Handwritten OCR with Training Samples Generated by Glyph
Conditional Denoising Diffusion Probabilistic Model [10.239782333441031]
トレーニングサンプルを生成するための拡散確率モデル(DDPM)を提案する。
このモデルは、印刷された文字と手書き画像のマッピングを作成する。
合成画像は、必ずしもグリフ条件付き画像と一致しない。
本稿では,これらのサンプルをトレーニングセットに高い信頼性で付加するプログレッシブデータフィルタリング手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T04:18:30Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Discriminative Class Tokens for Text-to-Image Diffusion Models [102.88033622546251]
自由形式のテキストの表現可能性を利用した非侵襲的な微調整手法を提案する。
本手法は,従来の微調整法と比較して高速で,クラス内の画像の収集を必要としない。
i)標準拡散モデルよりも正確で高品質な生成画像,(ii)低リソース環境でのトレーニングデータの拡張,および(iii)誘導分類器の訓練に使用されるデータ情報を明らかにする。
論文 参考訳(メタデータ) (2023-03-30T05:25:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。