論文の概要: Learning Generalizable and Efficient Image Watermarking via Hierarchical Two-Stage Optimization
- arxiv url: http://arxiv.org/abs/2508.08667v1
- Date: Tue, 12 Aug 2025 06:21:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.322877
- Title: Learning Generalizable and Efficient Image Watermarking via Hierarchical Two-Stage Optimization
- Title(参考訳): 階層的2段階最適化による一般化と効率的な画像透かしの学習
- Authors: Ke Liu, Xuanhan Wang, Qilong Zhang, Lianli Gao, Jingkuan Song,
- Abstract要約: ウォーターマーキングモデルが同時に3つの基準を達成できる2段階最適化を提案する。
HiWLは、広い適用性を維持しながら、一般化可能な潜在空間の透かし表現を効果的に学習する。
従来の方法よりも7.6%高い精度で透かし抽出が可能で、非常に低レイテンシ(8秒で処理された100K画像)を維持している。
- 参考スコア(独自算出の注目度): 90.13049455759358
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep image watermarking, which refers to enable imperceptible watermark embedding and reliable extraction in cover images, has shown to be effective for copyright protection of image assets. However, existing methods face limitations in simultaneously satisfying three essential criteria for generalizable watermarking: 1) invisibility (imperceptible hide of watermarks), 2) robustness (reliable watermark recovery under diverse conditions), and 3) broad applicability (low latency in watermarking process). To address these limitations, we propose a Hierarchical Watermark Learning (HiWL), a two-stage optimization that enable a watermarking model to simultaneously achieve three criteria. In the first stage, distribution alignment learning is designed to establish a common latent space with two constraints: 1) visual consistency between watermarked and non-watermarked images, and 2) information invariance across watermark latent representations. In this way, multi-modal inputs including watermark message (binary codes) and cover images (RGB pixels) can be well represented, ensuring the invisibility of watermarks and robustness in watermarking process thereby. The second stage employs generalized watermark representation learning to establish a disentanglement policy for separating watermarks from image content in RGB space. In particular, it strongly penalizes substantial fluctuations in separated RGB watermarks corresponding to identical messages. Consequently, HiWL effectively learns generalizable latent-space watermark representations while maintaining broad applicability. Extensive experiments demonstrate the effectiveness of proposed method. In particular, it achieves 7.6\% higher accuracy in watermark extraction than existing methods, while maintaining extremely low latency (100K images processed in 8s).
- Abstract(参考訳): ディープ・イメージ・透かし(ディープ・イメージ・透かし)は、被写体画像に知覚不能な透かしと信頼性の高い抽出を可能にすることを目的としており、画像資産の著作権保護に有効であることが示されている。
しかし、既存の手法は、一般化可能な透かしに必須の3つの基準を同時に満たす際に制限に直面している。
1)可視性(透かしの非知覚的な隠蔽)
2)堅牢性(多様な条件下での信頼性の高い透かし回復)、
3) 広い適用性(透かし処理の低レイテンシ)。
これらの制約に対処するため,階層型透かし学習(HiWL)を提案する。
最初の段階では、分散アライメント学習は2つの制約を持つ共通の潜在空間を確立するように設計されている。
1)透かし画像と非透かし画像との視覚的整合性
2)透かしの潜入表現における情報不変性
これにより、透かしメッセージ(バイナリコード)やカバー画像(RGBピクセル)を含むマルチモーダル入力を適切に表現することができ、透かし処理における透かしの可視性と堅牢性を確保することができる。
第2段階では、一般化された透かし表現学習を用いて、RGB空間内の画像コンテンツから透かしを分離する解離ポリシーを確立する。
特に、同一メッセージに対応する分離されたRGB透かしにおいて、かなりの変動を強く罰する。
その結果、HiWLは広い適用性を維持しつつ、一般化可能な潜在空間の透かし表現を効果的に学習する。
大規模実験により提案手法の有効性が示された。
特に、既存の方法よりも透かし抽出の精度が7.6\%向上し、非常に低レイテンシ(8秒で処理された100K画像)を維持している。
関連論文リスト
- PT-Mark: Invisible Watermarking for Text-to-image Diffusion Models via Semantic-aware Pivotal Tuning [19.170393134039568]
本稿ではセマンティック・アウェアなPivotal Tuning Watermarks(PT-Mark)を紹介する。
PT-Markは拡散画像の意味と透かしのトレーサビリティの両方を保存している。
最先端の透かし法に比べてセマンティックな保存性能が10%向上した。
論文 参考訳(メタデータ) (2025-04-15T04:25:57Z) - On the Coexistence and Ensembling of Watermarks [93.15379331904602]
様々なオープンソースの透かしは、画像の品質と復号性に小さな影響しか与えない。
我々は、アンサンブルがメッセージ全体のキャパシティを向上し、基本モデルを再トレーニングすることなく、キャパシティ、正確性、堅牢性、画像品質の新たなトレードオフを可能にすることを示す。
論文 参考訳(メタデータ) (2025-01-29T00:37:06Z) - ROBIN: Robust and Invisible Watermarks for Diffusion Models with Adversarial Optimization [15.570148419846175]
既存の透かし手法は、堅牢性と隠蔽のバランスをとるという課題に直面している。
本稿では, 透かしを積極的に隠蔽し, より強力な透かしの埋め込みを可能にするための透かし隠蔽法を提案する。
様々な拡散モデルの実験では、画像改ざんであっても透かしが検証可能であることが示されている。
論文 参考訳(メタデータ) (2024-11-06T12:14:23Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - Adaptive Blind Watermarking Using Psychovisual Image Features [8.75217589103206]
本稿では,カバー画像の異なる部分に埋め込まれた透かしの強度を適応的に決定する手法を提案する。
また, 提案手法は, 異なる種類の共通透かし攻撃において, 組込みペイロードを効果的に再構築できることを示す。
論文 参考訳(メタデータ) (2022-12-25T06:33:36Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Watermarking Images in Self-Supervised Latent Spaces [75.99287942537138]
我々は,自己教師型アプローチに照らして,事前学習した深層ネットワークに基づく透かし手法を再検討する。
我々は、マーク時間におけるデータの増大を利用して、マークとバイナリのメッセージをその潜在空間に埋め込む方法を提案する。
論文 参考訳(メタデータ) (2021-12-17T15:52:46Z) - Split then Refine: Stacked Attention-guided ResUNets for Blind Single
Image Visible Watermark Removal [69.92767260794628]
従来の透かし除去方法は,ユーザから透かしの位置を取得したり,マルチタスクネットワークをトレーニングして,背景を無差別に復元する必要があった。
本稿では,注目誘導型ResUNetsを積み重ねた新しい2段階フレームワークを提案し,検出・除去・精錬の過程をシミュレートする。
様々な条件下で4つの異なるデータセット上でアルゴリズムを広範囲に評価し,その手法が他の最先端手法をはるかに上回っていることを示す実験を行った。
論文 参考訳(メタデータ) (2020-12-13T09:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。