論文の概要: Decoupling Defense Strategies for Robust Image Watermarking
- arxiv url: http://arxiv.org/abs/2602.20053v1
- Date: Mon, 23 Feb 2026 17:02:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.915766
- Title: Decoupling Defense Strategies for Robust Image Watermarking
- Title(参考訳): ロバスト画像透かしのためのデカップリングディフェンス戦略
- Authors: Jiahui Chen, Zehang Deng, Zeyu Zhang, Chaoyang Li, Lianchen Jia, Lifeng Sun,
- Abstract要約: 深層学習に基づく画像透かしは、敵の攻撃や再生攻撃に弱い。
本稿では,防衛戦略を分離する2段階のファインチューニングフレームワークであるAdvMarkを提案する。
AdvMarkは画像のクオリティと総合的なロバスト性で優れています。
- 参考スコア(独自算出の注目度): 13.474717200403147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based image watermarking, while robust against conventional distortions, remains vulnerable to advanced adversarial and regeneration attacks. Conventional countermeasures, which jointly optimize the encoder and decoder via a noise layer, face 2 inevitable challenges: (1) decrease of clean accuracy due to decoder adversarial training and (2) limited robustness due to simultaneous training of all three advanced attacks. To overcome these issues, we propose AdvMark, a novel two-stage fine-tuning framework that decouples the defense strategies. In stage 1, we address adversarial vulnerability via a tailored adversarial training paradigm that primarily fine-tunes the encoder while only conditionally updating the decoder. This approach learns to move the image into a non-attackable region, rather than modifying the decision boundary, thus preserving clean accuracy. In stage 2, we tackle distortion and regeneration attacks via direct image optimization. To preserve the adversarial robustness gained in stage 1, we formulate a principled, constrained image loss with theoretical guarantees, which balances the deviation from cover and previous encoded images. We also propose a quality-aware early-stop to further guarantee the lower bound of visual quality. Extensive experiments demonstrate AdvMark outperforms with the highest image quality and comprehensive robustness, i.e. up to 29\%, 33\% and 46\% accuracy improvement for distortion, regeneration and adversarial attacks, respectively.
- Abstract(参考訳): 深層学習に基づく画像透かしは、従来の歪みに対して頑健であるが、先進的な敵・再生攻撃に弱いままである。
ノイズ層を介してエンコーダとデコーダを協調的に最適化する従来の対策は、(1)デコーダの対向訓練によるクリーンな精度の低下、(2)3つの先進攻撃の同時訓練によるロバスト性の制限、という2つの必然的課題に直面している。
これらの問題を克服するために,防衛戦略を分離する新しい2段階の微調整フレームワークであるAdvMarkを提案する。
ステージ1では、デコーダのみを条件付き更新しながら、主にエンコーダを微調整する、調整された対向訓練パラダイムを介して、敵の脆弱性に対処する。
このアプローチでは、決定境界を変更するのではなく、イメージを非攻撃可能な領域に移すことを学び、クリーンな精度を保つ。
ステージ2では、直接画像最適化による歪みと再生攻撃に対処する。
ステージ1で得られた対向ロバスト性を維持するために,原理的制約付き画像損失を理論的保証とともに定式化し,カバーと以前の符号化画像との偏差のバランスをとる。
また、視覚的品質の低い境界をさらに保証するために、品質を意識した早期停止を提案する。
大規模な実験では、AdvMarkは画像品質が最も高く、かつ総合的な堅牢性、すなわち歪み、再生、敵攻撃の精度を最大29\%、33\%、46\%に向上することを示した。
関連論文リスト
- IConMark: Robust Interpretable Concept-Based Watermark For AI Images [50.045011844765185]
我々は,新しい世代のロバストなセマンティックな透かし法であるIConMarkを提案する。
IConMarkは、解釈可能な概念をAI生成イメージに組み込み、敵の操作に耐性を持たせる。
我々は、検出精度と画質の維持の観点から、その優位性を実証する。
論文 参考訳(メタデータ) (2025-07-17T05:38:30Z) - Active Adversarial Noise Suppression for Image Forgery Localization [56.98050814363447]
本稿では、敵騒音の攻撃効果を抑制するために、防御的摂動を発生させる敵騒音抑制モジュール(ANSM)を提案する。
我々の知る限りでは、画像フォージェリローカライゼーションタスクにおける敵対的防御の報告としてはこれが初めてである。
論文 参考訳(メタデータ) (2025-06-15T14:53:27Z) - ARIW-Framework: Adaptive Robust Iterative Watermarking Framework [14.782580487951018]
本稿では適応型ロバストな反復型透かしフレームワーク(ARIW-Framework)を提案する。
異常な堅牢性と一般化性能を維持しつつ、高品質な透かし画像を実現する。
論文 参考訳(メタデータ) (2025-05-19T13:31:48Z) - CLIP is Strong Enough to Fight Back: Test-time Counterattacks towards Zero-shot Adversarial Robustness of CLIP [54.660471826755234]
分類損失を最大化しようとする悪意のある摂動が、誤った画像に繋がることを示す。
本稿では,CLIPの事前学習したビジョンエンコーダを用いて,推論中の敵画像に対する攻撃を行い,ロバスト性を実現することを提案する。
私たちのパラダイムはシンプルで、トレーニング不要で、テスト時にCLIPを敵攻撃から防御する最初の方法を提供します。
論文 参考訳(メタデータ) (2025-03-05T15:51:59Z) - Gradient-Free Adversarial Purification with Diffusion Models [26.591092007972325]
敵の訓練と敵の浄化は、敵の攻撃に対するモデル堅牢性を高めるために広く用いられている。
本稿では,摂動型攻撃と非制限型攻撃の両方に対抗し,効果的かつ効率的な防御フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-23T02:34:14Z) - Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Improving Adversarial Robustness of Masked Autoencoders via Test-time
Frequency-domain Prompting [133.55037976429088]
BERTプリトレーニング(BEiT, MAE)を備えた視覚変換器の対向ロバスト性について検討する。
意外な観察は、MAEが他のBERT事前訓練法よりも敵の頑健さが著しく悪いことである。
我々は,MAEの対角的堅牢性を高めるための,シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-08-20T16:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。