論文の概要: MaXsive: High-Capacity and Robust Training-Free Generative Image Watermarking in Diffusion Models
- arxiv url: http://arxiv.org/abs/2507.21195v1
- Date: Mon, 28 Jul 2025 00:51:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.063448
- Title: MaXsive: High-Capacity and Robust Training-Free Generative Image Watermarking in Diffusion Models
- Title(参考訳): MaXsive:拡散モデルにおける高容量・ロバストトレーニング不要な生成画像透かし
- Authors: Po-Yuan Mao, Cheng-Chang Tsai, Chun-Shien Lu,
- Abstract要約: トレーニング不要な拡散透かしはこれらの問題に対して低コストのソリューションを提供する。
MaXsiveは、高いキャパシティとロバスト性を有するトレーニングフリー拡散モデル生成透かし技術である。
- 参考スコア(独自算出の注目度): 4.978556976426026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The great success of the diffusion model in image synthesis led to the release of gigantic commercial models, raising the issue of copyright protection and inappropriate content generation. Training-free diffusion watermarking provides a low-cost solution for these issues. However, the prior works remain vulnerable to rotation, scaling, and translation (RST) attacks. Although some methods employ meticulously designed patterns to mitigate this issue, they often reduce watermark capacity, which can result in identity (ID) collusion. To address these problems, we propose MaXsive, a training-free diffusion model generative watermarking technique that has high capacity and robustness. MaXsive best utilizes the initial noise to watermark the diffusion model. Moreover, instead of using a meticulously repetitive ring pattern, we propose injecting the X-shape template to recover the RST distortions. This design significantly increases robustness without losing any capacity, making ID collusion less likely to happen. The effectiveness of MaXsive has been verified on two well-known watermarking benchmarks under the scenarios of verification and identification.
- Abstract(参考訳): 画像合成における拡散モデルの大きな成功により、巨大な商用モデルがリリースされ、著作権保護と不適切なコンテンツ生成の問題が持ち上がった。
トレーニング不要な拡散透かしはこれらの問題に対して低コストのソリューションを提供する。
しかし、以前の作業はローテーション、スケーリング、翻訳(RST)攻撃に弱いままである。
この問題を軽減するために細心の注意を払って設計されたパターンを用いる手法もあるが、透かしの容量を減らし、IDの衝突を引き起こすことがある。
これらの問題に対処するために,訓練不要な拡散モデル生成型透かし技術であるMaXsiveを提案する。
MaXsiveは拡散モデルの透かしに初期雑音を利用する。
さらに, 繰り返しリングパターンの代わりに, RST歪みを再現するためにX字型テンプレートを注入することを提案する。
この設計はキャパシティを失うことなくロバスト性を大幅に向上させ、IDの共謀が起こらないようにする。
MaXsiveの有効性は、検証と識別のシナリオの下で、よく知られた2つのウォーターマーキングベンチマークで検証されている。
関連論文リスト
- SEAL: Semantic Aware Image Watermarking [26.606008778795193]
本稿では,生成した画像のセマンティック情報を透かしに直接埋め込む新しい透かし手法を提案する。
キーパターンは、局所性に敏感なハッシュを用いて画像のセマンティック埋め込みから推測することができる。
以上の結果から,画像生成モデルによるリスクを軽減できる可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-15T15:29:05Z) - SleeperMark: Towards Robust Watermark against Fine-Tuning Text-to-image Diffusion Models [77.80595722480074]
SleeperMarkは、回復力のある透かしをT2I拡散モデルに埋め込むように設計されたフレームワークである。
学習したセマンティックな概念から透かし情報を切り離すようモデルに誘導する。
各種拡散モデルにおけるSleeperMarkの有効性について実験を行った。
論文 参考訳(メタデータ) (2024-12-06T08:44:18Z) - JIGMARK: A Black-Box Approach for Enhancing Image Watermarks against Diffusion Model Edits [76.25962336540226]
JIGMARKは、コントラスト学習による堅牢性を高める、第一級の透かし技術である。
本評価の結果,JIGMARKは既存の透かし法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-06T03:31:41Z) - AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - Attack-Resilient Image Watermarking Using Stable Diffusion [24.40254115319263]
トレーニング済みの安定拡散モデルを用いて,トレーニング可能な潜在空間に透かしを注入するZoDiacを提案する。
ZoDiacは最先端の透かし攻撃に対して堅牢であり、透かし検出率は98%以上、偽陽性率は6.4%以下である。
我々の研究は、安定拡散は堅牢な透かしへの有望なアプローチであり、安定拡散に基づく攻撃にも耐えられることを示した。
論文 参考訳(メタデータ) (2024-01-08T21:42:56Z) - Intellectual Property Protection of Diffusion Models via the Watermark
Diffusion Process [22.38407658885059]
本稿では,タスク生成時に透かしを印字せずに拡散モデルに新しい透かし手法であるWDMを紹介する。
タスク生成のための標準的な拡散プロセスと並行して、透かしを埋め込むための透かし拡散プロセス(WDP)を同時に学習するモデルを訓練する。
論文 参考訳(メタデータ) (2023-06-06T06:31:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。