論文の概要: Spread them Apart: Towards Robust Watermarking of Generated Content
- arxiv url: http://arxiv.org/abs/2502.07845v1
- Date: Tue, 11 Feb 2025 09:23:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:49:59.497309
- Title: Spread them Apart: Towards Robust Watermarking of Generated Content
- Title(参考訳): 一部を広める - 生成コンテンツのロバストな透かしを目指して
- Authors: Mikhail Pautov, Danil Ivanov, Andrey V. Galichin, Oleg Rogov, Ivan Oseledets,
- Abstract要約: 本稿では,生成したコンテンツに透かしを埋め込む手法を提案する。
埋め込みされた透かしは、境界等級の加法摂動に対して頑健であることを保証する。
- 参考スコア(独自算出の注目度): 4.332441337407564
- License:
- Abstract: Generative models that can produce realistic images have improved significantly in recent years. The quality of the generated content has increased drastically, so sometimes it is very difficult to distinguish between the real images and the generated ones. Such an improvement comes at a price of ethical concerns about the usage of the generative models: the users of generative models can improperly claim ownership of the generated content protected by a license. In this paper, we propose an approach to embed watermarks into the generated content to allow future detection of the generated content and identification of the user who generated it. The watermark is embedded during the inference of the model, so the proposed approach does not require the retraining of the latter. We prove that watermarks embedded are guaranteed to be robust against additive perturbations of a bounded magnitude. We apply our method to watermark diffusion models and show that it matches state-of-the-art watermarking schemes in terms of robustness to different types of synthetic watermark removal attacks.
- Abstract(参考訳): 近年,現実的なイメージを生成可能な生成モデルは大幅に改善されている。
生成したコンテンツの品質は劇的に向上しているため、実際の画像と生成されたコンテンツとを区別することが非常に難しい場合がある。
生成モデルの使用者は、ライセンスによって保護された生成されたコンテンツの所有権を不適切に主張することができる。
本稿では,生成されたコンテンツに透かしを埋め込む手法を提案する。
ウォーターマークはモデルの推論中に埋め込まれているので、提案手法は後者の再訓練を必要としない。
埋め込みされた透かしは、境界等級の加法摂動に対して頑健であることを保証する。
本手法を透かし拡散モデルに適用し, 異なる種類の合成透かし除去攻撃に対するロバスト性の観点から, 最先端の透かし方式と一致することを示す。
関連論文リスト
- Exploiting Watermark-Based Defense Mechanisms in Text-to-Image Diffusion Models for Unauthorized Data Usage [14.985938758090763]
安定拡散のようなテキストと画像の拡散モデルは、高品質な画像を生成するのに例外的な可能性を示している。
近年の研究では、これらのモデルのトレーニングに不正データを使用することが懸念されており、知的財産権侵害やプライバシー侵害につながる可能性がある。
本稿では、拡散過程を利用して保護された入力に対して制御された画像を生成するRATTANを提案する。
論文 参考訳(メタデータ) (2024-11-22T22:28:19Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Stable Signature is Unstable: Removing Image Watermark from Diffusion Models [1.656188668325832]
本研究では,拡散モデルから透かしを微調整して除去する新たな攻撃法を提案する。
以上の結果から,本攻撃は画像が非透かしとなるような拡散モデルから効果的に透かしを除去できることが示唆された。
論文 参考訳(メタデータ) (2024-05-12T03:04:48Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - A Watermark-Conditioned Diffusion Model for IP Protection [31.969286898467985]
拡散モデルにおけるコンテンツ著作権保護のための統一的な透かしフレームワークを提案する。
そこで我々はWaDiffと呼ばれるWadmark条件付き拡散モデルを提案する。
本手法は,検出タスクと所有者識別タスクの両方において有効かつ堅牢である。
論文 参考訳(メタデータ) (2024-03-16T11:08:15Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Unbiased Watermark for Large Language Models [67.43415395591221]
本研究では, モデル生成出力の品質に及ぼす透かしの影響について検討した。
出力確率分布に影響を与えることなく、透かしを統合することができる。
ウォーターマークの存在は、下流タスクにおけるモデルの性能を損なうものではない。
論文 参考訳(メタデータ) (2023-09-22T12:46:38Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。