論文の概要: Invisible Backdoor Triggers in Image Editing Model via Deep Watermarking
- arxiv url: http://arxiv.org/abs/2506.04879v1
- Date: Thu, 05 Jun 2025 10:51:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.669306
- Title: Invisible Backdoor Triggers in Image Editing Model via Deep Watermarking
- Title(参考訳): 深層透かしによる画像編集モデルにおける見えないバックドアトリガー
- Authors: Yu-Feng Chen, Tzuhsuan Huang, Pin-Yen Chiu, Jun-Cheng Chen,
- Abstract要約: 有害なデータによる画像編集プロセスに、目に見えないトリガーを埋め込む新たな攻撃フレームワークを提案する。
既成の深層透かしモデルを利用して、知覚不可能な透かしをバックドアトリガーとしてエンコードする。
私たちのゴールは、ウォーターマークされた入力を受け取る際に、事前に定義されたバックドアターゲットをモデルに作成できるようにすることです。
- 参考スコア(独自算出の注目度): 16.91647920681511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have achieved remarkable progress in both image generation and editing. However, recent studies have revealed their vulnerability to backdoor attacks, in which specific patterns embedded in the input can manipulate the model's behavior. Most existing research in this area has proposed attack frameworks focused on the image generation pipeline, leaving backdoor attacks in image editing relatively unexplored. Among the few studies targeting image editing, most utilize visible triggers, which are impractical because they introduce noticeable alterations to the input image before editing. In this paper, we propose a novel attack framework that embeds invisible triggers into the image editing process via poisoned training data. We leverage off-the-shelf deep watermarking models to encode imperceptible watermarks as backdoor triggers. Our goal is to make the model produce the predefined backdoor target when it receives watermarked inputs, while editing clean images normally according to the given prompt. With extensive experiments across different watermarking models, the proposed method achieves promising attack success rates. In addition, the analysis results of the watermark characteristics in term of backdoor attack further support the effectiveness of our approach. The code is available at:https://github.com/aiiu-lab/BackdoorImageEditing
- Abstract(参考訳): 拡散モデルは画像生成と編集の両方において顕著な進歩を遂げた。
しかし、最近の研究では、入力に埋め込まれた特定のパターンがモデルの振る舞いを操作できるバックドア攻撃に対する脆弱性が明らかにされている。
この分野の既存の研究のほとんどは、画像生成パイプラインに焦点を当てたアタックフレームワークを提案しており、画像編集におけるバックドアアタックは比較的未調査である。
画像編集を対象とする数少ない研究の中で、ほとんどの場合可視トリガは非現実的であり、編集前に入力画像に顕著な変更を導入するためである。
本稿では,有害な訓練データを用いた画像編集プロセスに目に見えないトリガーを埋め込む新たな攻撃フレームワークを提案する。
既成の深層透かしモデルを利用して、知覚不可能な透かしをバックドアトリガーとしてエンコードする。
私たちのゴールは、与えられたプロンプトに従ってクリーンな画像を正常に編集しながら、ウォーターマークされた入力を受け取る際に、事前に定義されたバックドアターゲットを作成することです。
異なるウォーターマーキングモデルに対する広範な実験により,提案手法は有望な攻撃成功率を達成する。
また,バックドア攻撃における透かし特性の解析結果も,本手法の有効性を裏付けるものである。
コードは、https://github.com/aiiu-lab/BackdoorImageEditingで入手できる。
関連論文リスト
- Parasite: A Steganography-based Backdoor Attack Framework for Diffusion Models [9.459318290809907]
本研究では,拡散モデルにおけるイメージ・ツー・イメージタスクのための新しいバックドアアタック手法"Parasite"を提案する。
新規攻撃手法としての「パラサイト」は、バックドア攻撃を実行するための既存の検出フレームワークを効果的にバイパスする。
論文 参考訳(メタデータ) (2025-04-08T08:53:47Z) - TrojanEdit: Multimodal Backdoor Attack Against Image Editing Model [9.42648142497562]
本研究は,マルチモーダル拡散に基づく画像編集モデルに対するバックドア攻撃に関する最初の研究である。
TrojanEditは、トレーニング中の各モードの勾配コントリビューションを動的に調整するバックドアインジェクションフレームワークである。
論文 参考訳(メタデータ) (2024-11-22T02:27:27Z) - Stealthy Targeted Backdoor Attacks against Image Captioning [16.409633596670368]
本稿では,画像キャプションモデルに対するバックドア攻撃を標的とした新たな手法を提案する。
本手法は,物体検出に普遍摂動技術を活用することで,まず特別なトリガを学習する。
我々のアプローチは、モデルクリーンパフォーマンスに無視できる影響を与えながら、高い攻撃成功率を達成することができる。
論文 参考訳(メタデータ) (2024-06-09T18:11:06Z) - Backdoor Attack with Mode Mixture Latent Modification [26.720292228686446]
本研究では,微調整の要領でバックドアを注入するために,クリーンモデルへの最小限の変更しか必要としないバックドア攻撃パラダイムを提案する。
提案手法の有効性を4つのベンチマーク・データセットで評価した。
論文 参考訳(メタデータ) (2024-03-12T09:59:34Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z) - Clean-Label Backdoor Attacks on Video Recognition Models [87.46539956587908]
画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
論文 参考訳(メタデータ) (2020-03-06T04:51:48Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。