論文の概要: Decoder Gradient Shield: Provable and High-Fidelity Prevention of Gradient-Based Box-Free Watermark Removal
- arxiv url: http://arxiv.org/abs/2502.20924v1
- Date: Fri, 28 Feb 2025 10:27:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:41:51.150645
- Title: Decoder Gradient Shield: Provable and High-Fidelity Prevention of Gradient-Based Box-Free Watermark Removal
- Title(参考訳): デコーダグラディエントシールド:グラディエントベースボックスフリー透かし除去の確率・高精度防止
- Authors: Haonan An, Guang Hua, Zhengru Fang, Guowen Xu, Susanto Rahardja, Yuguang Fang,
- Abstract要約: ボックスフリーの透かしは、ディープ・イメージ・ツー・イメージ・モデルを保護することができる。
ボックスフリーの透かしは、それぞれエンコーダとデコーダを使用して、モデルの出力画像から見えない著作権マークを埋め込んで抽出する。
本稿では,保護されていない透かしデコーダの脆弱性を明らかにする。
本稿では,デコーダAPIの保護層としてデコーダ勾配シールド(DGS)を提案し,勾配に基づく透かし除去を防止する。
- 参考スコア(独自算出の注目度): 21.876772763530383
- License:
- Abstract: The intellectual property of deep image-to-image models can be protected by the so-called box-free watermarking. It uses an encoder and a decoder, respectively, to embed into and extract from the model's output images invisible copyright marks. Prior works have improved watermark robustness, focusing on the design of better watermark encoders. In this paper, we reveal an overlooked vulnerability of the unprotected watermark decoder which is jointly trained with the encoder and can be exploited to train a watermark removal network. To defend against such an attack, we propose the decoder gradient shield (DGS) as a protection layer in the decoder API to prevent gradient-based watermark removal with a closed-form solution. The fundamental idea is inspired by the classical adversarial attack, but is utilized for the first time as a defensive mechanism in the box-free model watermarking. We then demonstrate that DGS can reorient and rescale the gradient directions of watermarked queries and stop the watermark remover's training loss from converging to the level without DGS, while retaining decoder output image quality. Experimental results verify the effectiveness of proposed method. Code of paper will be made available upon acceptance.
- Abstract(参考訳): ディープイメージ・ツー・イメージモデルの知的特性は、いわゆるボックスフリー透かしによって保護される。
エンコーダとデコーダを使用して、モデルから出力された画像から目に見えない著作権マークを埋め込んで抽出する。
以前の作品は透かしの堅牢性を改善し、より良い透かしエンコーダの設計に重点を置いていた。
本稿では,保護されていない透かしデコーダの脆弱性を明らかにする。この脆弱性はエンコーダと共同で訓練され,透かし除去ネットワークのトレーニングに利用することができる。
このような攻撃に対して防御するために,デコーダAPIの保護層としてデコーダ勾配シールド(DGS)を提案する。
基本的な考え方は古典的な敵攻撃に触発されているが、ボックスフリーモデルウォーターマーキングの防御機構として初めて利用される。
次に、DGSは、透かし付きクエリの勾配方向を再調整し、デコーダ出力画像の品質を維持しながら、DGSなしで、透かし除去器のトレーニング損失が収束するのを防ぐことができることを示した。
提案手法の有効性を実験的に検証した。
受理の際は、用紙の法典を交付する。
関連論文リスト
- Invisible Watermarks: Attacks and Robustness [0.3495246564946556]
本稿では,攻撃時の画像品質の劣化を最小限に抑えるとともに,透かしの堅牢性を向上する新しい手法を提案する。
そこで本研究では,デコード中,一方の透かしのモダリティを保ちながら他方を完全に除去する独自の透かし除去ネットワークを提案する。
評価の結果,1)他のモダリティを復号する際の透かしモダリティの1つを保持するための透かし除去モデルの実装は,ベースライン性能において若干改善され,2)LBAは画像全体の均一なぼかしに比べて画像の劣化を著しく低減することがわかった。
論文 参考訳(メタデータ) (2024-12-17T03:50:13Z) - ESpeW: Robust Copyright Protection for LLM-based EaaS via Embedding-Specific Watermark [50.08021440235581]
組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の緊急の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
論文 参考訳(メタデータ) (2024-10-23T04:34:49Z) - An undetectable watermark for generative image models [65.31658824274894]
生成画像モデルに対する検出不能な最初の透かし方式を提案する。
特に、検出不能な透かしは、効率的に計算可能なメートル法で画質を劣化させることはない。
提案手法は,擬似乱数誤り訂正符号を用いて拡散モデルの初期潜時間を選択する。
論文 参考訳(メタデータ) (2024-10-09T18:33:06Z) - A Transfer Attack to Image Watermarks [34.913290430783185]
本研究では,Non-box設定における画像透かしに対する新しい転送回避攻撃を提案する。
我々の主な貢献は、理論的にも経験的にも、既存の透かし法に基づく透かしベースのAI生成画像検出器は、回避攻撃に対して堅牢ではないことを示すことである。
論文 参考訳(メタデータ) (2024-03-22T17:33:11Z) - DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Supervised GAN Watermarking for Intellectual Property Protection [33.827150843939094]
本稿では,GAN(Generative Adversarial Networks)のための透かし手法を提案する。
目的は、GANモデルで生成された画像が見えない透かし(署名)を含むように、GANモデルに透かしを付けることである。
その結果,本手法は生成画像内に見えない透かしを効果的に埋め込むことができることがわかった。
論文 参考訳(メタデータ) (2022-09-07T20:52:05Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Piracy-Resistant DNN Watermarking by Block-Wise Image Transformation
with Secret Key [15.483078145498085]
提案手法は学習可能な変換画像を用いてモデルに透かしパターンを埋め込む。
海賊に耐性があるため、元のウォーターマークは海賊版ウォーターマークでは上書きできない。
その結果,高い透かし検出精度を維持しつつ,微調整や刈り込み攻撃に対して弾力性を示した。
論文 参考訳(メタデータ) (2021-04-09T08:21:53Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。