論文の概要: Trigger-Based Fragile Model Watermarking for Image Transformation Networks
- arxiv url: http://arxiv.org/abs/2409.19442v1
- Date: Sat, 28 Sep 2024 19:34:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 23:19:24.910511
- Title: Trigger-Based Fragile Model Watermarking for Image Transformation Networks
- Title(参考訳): 画像変換ネットワークのためのトリガー型フラジイルモデル透かし
- Authors: Preston K. Robinette, Dung T. Nguyen, Samuel Sasaki, Taylor T. Johnson,
- Abstract要約: 脆弱な透かしでは、微妙な透かしが、改ざん時に透かしが壊れるように、物体に埋め込まれる。
画像変換・生成ネットワークのための新規なトリガ型フラクタモデル透かしシステムを提案する。
私たちのアプローチは、堅牢な透かしとは別として、さまざまなデータセットや攻撃に対して、モデルのソースと整合性を効果的に検証します。
- 参考スコア(独自算出の注目度): 2.38776871944507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In fragile watermarking, a sensitive watermark is embedded in an object in a manner such that the watermark breaks upon tampering. This fragile process can be used to ensure the integrity and source of watermarked objects. While fragile watermarking for model integrity has been studied in classification models, image transformation/generation models have yet to be explored. We introduce a novel, trigger-based fragile model watermarking system for image transformation/generation networks that takes advantage of properties inherent to image outputs. For example, manifesting watermarks as specific visual patterns, styles, or anomalies in the generated content when particular trigger inputs are used. Our approach, distinct from robust watermarking, effectively verifies the model's source and integrity across various datasets and attacks, outperforming baselines by 94%. We conduct additional experiments to analyze the security of this approach, the flexibility of the trigger and resulting watermark, and the sensitivity of the watermarking loss on performance. We also demonstrate the applicability of this approach on two different tasks (1 immediate task and 1 downstream task). This is the first work to consider fragile model watermarking for image transformation/generation networks.
- Abstract(参考訳): 脆弱な透かしでは、微妙な透かしが、改ざん時に透かしが壊れるように、物体に埋め込まれる。
この脆弱なプロセスは、ウォーターマークされたオブジェクトの完全性とソースを保証するために使用することができる。
モデル整合性のための脆弱な透かしは分類モデルで研究されているが、画像変換/生成モデルはまだ検討されていない。
本稿では,画像出力に固有の特性を生かした画像変換/生成ネットワークのための,新しいトリガ型フラクタモデル透かしシステムを提案する。
例えば、特定のトリガ入力を使用すると、生成されたコンテンツに特定の視覚パターン、スタイル、または異常を示す。
私たちのアプローチは、堅牢な透かしとは別として、さまざまなデータセットやアタックにわたるモデルのソースと整合性を効果的に検証し、ベースラインを94%上回るようにしています。
我々は,本手法の安全性,トリガの柔軟性,結果の透かしの柔軟性,性能に対する透かし損失の感度を解析するための追加実験を行った。
また、このアプローチを2つの異なるタスク(1つの即時タスクと1つのダウンストリームタスク)に適用可能であることを示す。
これは、画像変換/生成ネットワークのための脆弱なモデル透かしを考える最初の研究である。
関連論文リスト
- Dynamic watermarks in images generated by diffusion models [46.1135899490656]
高忠実度テキストから画像への拡散モデルが視覚コンテンツ生成に革命をもたらしたが、その普及は重大な倫理的懸念を提起している。
本稿では,拡散モデルのための新しい多段階透かしフレームワークを提案する。
我々の研究は、モデルオーナシップの検証と誤用防止のためのスケーラブルなソリューションを提供することで、AI生成コンテンツセキュリティの分野を前進させます。
論文 参考訳(メタデータ) (2025-02-13T03:23:17Z) - Image Watermarking of Generative Diffusion Models [42.982489491857145]
拡散モデル自体に透かしの特徴を埋め込む透かし手法を提案する。
本手法は,エンド・ツー・エンド・エンド・プロセスで学習した生成モデルに対して,ペア型透かし抽出器の訓練を可能にする。
高精度な透かし埋め込み/検出を実証し,本手法に埋め込まれた異なる透かしを区別し,生成モデルの区別を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2025-02-12T09:00:48Z) - Robust Watermarks Leak: Channel-Aware Feature Extraction Enables Adversarial Watermark Manipulation [21.41643665626451]
本稿では,事前学習された視覚モデルを用いて,透かしパターンの漏洩を抽出する攻撃フレームワークを提案する。
大量のデータや検出器のアクセスを必要とする従来の作業とは異なり,本手法は1つの透かし画像による偽造と検出の両方を達成している。
現在の"ロバスト"な透かしは、歪み抵抗に対するセキュリティを犠牲にして、将来の透かし設計の洞察を与えます。
論文 参考訳(メタデータ) (2025-02-10T12:55:08Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - A Watermark-Conditioned Diffusion Model for IP Protection [31.969286898467985]
拡散モデルにおけるコンテンツ著作権保護のための統一的な透かしフレームワークを提案する。
そこで我々はWaDiffと呼ばれるWadmark条件付き拡散モデルを提案する。
本手法は,検出タスクと所有者識別タスクの両方において有効かつ堅牢である。
論文 参考訳(メタデータ) (2024-03-16T11:08:15Z) - Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs [23.639074918667625]
ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
論文 参考訳(メタデータ) (2023-10-25T18:38:10Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。