論文の概要: Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs
- arxiv url: http://arxiv.org/abs/2310.16919v1
- Date: Wed, 25 Oct 2023 18:38:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-27 23:58:14.498352
- Title: Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs
- Title(参考訳): GANのロバスト所有権検証のための広域最小透かし
- Authors: Jianwei Fei, Zhihua Xia, Benedetta Tondi, Mauro Barni
- Abstract要約: ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
- 参考スコア(独自算出の注目度): 23.639074918667625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel multi-bit box-free watermarking method for the protection
of Intellectual Property Rights (IPR) of GANs with improved robustness against
white-box attacks like fine-tuning, pruning, quantization, and surrogate model
attacks. The watermark is embedded by adding an extra watermarking loss term
during GAN training, ensuring that the images generated by the GAN contain an
invisible watermark that can be retrieved by a pre-trained watermark decoder.
In order to improve the robustness against white-box model-level attacks, we
make sure that the model converges to a wide flat minimum of the watermarking
loss term, in such a way that any modification of the model parameters does not
erase the watermark. To do so, we add random noise vectors to the parameters of
the generator and require that the watermarking loss term is as invariant as
possible with respect to the presence of noise. This procedure forces the
generator to converge to a wide flat minimum of the watermarking loss. The
proposed method is architectureand dataset-agnostic, thus being applicable to
many different generation tasks and models, as well as to CNN-based image
processing architectures. We present the results of extensive experiments
showing that the presence of the watermark has a negligible impact on the
quality of the generated images, and proving the superior robustness of the
watermark against model modification and surrogate model attacks.
- Abstract(参考訳): 本稿では,ganの知的財産権(ipr)を保護し,微調整,プルーニング,量子化,サロゲートモデル攻撃などのホワイトボックス攻撃に対するロバスト性を向上させるための,新たなマルチビットボックスフリー透かし手法を提案する。
本発明の透かしは、GANトレーニング中に余分な透かし損失項を加えて埋め込み、予め訓練された透かしデコーダで検索可能な目に見えない透かしを含むようにする。
ホワイトボックスモデルレベルの攻撃に対するロバスト性を改善するため、モデルパラメータの変更がウォーターマークを消去しないように、モデルがウォーターマーキング損失項の最大平坦な最小値に収束することを保証する。
そのため、発生器のパラメータにランダムノイズベクトルを追加し、ノイズの存在に関して透かし損失項が可能な限り不変であることを要求する。
この手順により、ジェネレータは、透かし損失の最大で平らな最小値に収束する。
提案手法はアーキテクチャとデータセット非依存であり、cnnベースの画像処理アーキテクチャと同様に、様々な世代のタスクやモデルに適用できる。
本研究では,ウォーターマークの存在が生成画像の品質に不可分な影響を与え,モデル修正やサロゲートモデル攻撃に対するウォーターマークの優れたロバスト性が証明できることを示す広範な実験結果を示す。
関連論文リスト
- An Efficient Watermarking Method for Latent Diffusion Models via Low-Rank Adaptation [21.058231817498115]
低ランク適応(LoRA)に基づく潜在拡散モデル(LDM)の効率的な透かし手法を提案する。
提案手法は,高速な透かし埋め込みを保証し,透かしの非常に低ビット誤り率,生成画像の品質,検証のためのゼロ偽陰率(FNR)を維持できることを示す。
論文 参考訳(メタデータ) (2024-10-26T15:23:49Z) - Trigger-Based Fragile Model Watermarking for Image Transformation Networks [2.38776871944507]
脆弱な透かしでは、微妙な透かしが、改ざん時に透かしが壊れるように、物体に埋め込まれる。
画像変換・生成ネットワークのための新規なトリガ型フラクタモデル透かしシステムを提案する。
私たちのアプローチは、堅牢な透かしとは別として、さまざまなデータセットや攻撃に対して、モデルのソースと整合性を効果的に検証します。
論文 参考訳(メタデータ) (2024-09-28T19:34:55Z) - AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Piracy-Resistant DNN Watermarking by Block-Wise Image Transformation
with Secret Key [15.483078145498085]
提案手法は学習可能な変換画像を用いてモデルに透かしパターンを埋め込む。
海賊に耐性があるため、元のウォーターマークは海賊版ウォーターマークでは上書きできない。
その結果,高い透かし検出精度を維持しつつ,微調整や刈り込み攻撃に対して弾力性を示した。
論文 参考訳(メタデータ) (2021-04-09T08:21:53Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。