論文の概要: MT-Mark: Rethinking Image Watermarking via Mutual-Teacher Collaboration with Adaptive Feature Modulation
- arxiv url: http://arxiv.org/abs/2512.19438v1
- Date: Mon, 22 Dec 2025 14:36:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.7903
- Title: MT-Mark: Rethinking Image Watermarking via Mutual-Teacher Collaboration with Adaptive Feature Modulation
- Title(参考訳): MT-Mark: 適応的特徴変調を用いた相互教師協調による画像透かしの再考
- Authors: Fei Ge, Ying Huang, Jie Liu, Guixuan Zhang, Zhi Zeng, Shuwu Zhang, Hu Guan,
- Abstract要約: 既存のディープ画像透かし手法は、固定された埋め込み歪み抽出パイプラインに従う。
我々は,組込み機と抽出器の直接双方向通信を確立する協調的相互作用機構(CIM)を導入する。
また,効果的なインタラクションを支援するための適応的特徴変調モジュール (AFMM) を提案する。
- 参考スコア(独自算出の注目度): 11.139536166110204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing deep image watermarking methods follow a fixed embedding-distortion-extraction pipeline, where the embedder and extractor are weakly coupled through a final loss and optimized in isolation. This design lacks explicit collaboration, leaving no structured mechanism for the embedder to incorporate decoding-aware cues or for the extractor to guide embedding during training. To address this architectural limitation, we rethink deep image watermarking by reformulating embedding and extraction as explicitly collaborative components. To realize this reformulation, we introduce a Collaborative Interaction Mechanism (CIM) that establishes direct, bidirectional communication between the embedder and extractor, enabling a mutual-teacher training paradigm and coordinated optimization. Built upon this explicitly collaborative architecture, we further propose an Adaptive Feature Modulation Module (AFMM) to support effective interaction. AFMM enables content-aware feature regulation by decoupling modulation structure and strength, guiding watermark embedding toward stable image features while suppressing host interference during extraction. Under CIM, the AFMMs on both sides form a closed-loop collaboration that aligns embedding behavior with extraction objectives. This architecture-level redesign changes how robustness is learned in watermarking systems. Rather than relying on exhaustive distortion simulation, robustness emerges from coordinated representation learning between embedding and extraction. Experiments on real-world and AI-generated datasets demonstrate that the proposed method consistently outperforms state-of-the-art approaches in watermark extraction accuracy while maintaining high perceptual quality, showing strong robustness and generalization.
- Abstract(参考訳): 既存のディープ画像透かし法は、固定された埋め込み歪み抽出パイプラインに従っており、埋め込み器と抽出器は最終損失によって弱結合され、分離で最適化される。
この設計には明確なコラボレーションが欠如しており、デコード対応のキューを組み込むための構造的なメカニズムや、トレーニング中の埋め込みをガイドする抽出器は残っていない。
このアーキテクチャの限界に対処するために、埋め込みと抽出を明示的に協調的なコンポーネントとして再構成することで、ディープイメージの透かしを再考する。
この再構成を実現するために,組込み機と抽出器の直接双方向通信を確立する協調的相互作用機構(CIM)を導入し,相互学習者の学習パラダイムと協調最適化を実現する。
この明示的な協調アーキテクチャに基づいて、効果的な相互作用をサポートするための適応的特徴変調モジュール(AFMM)をさらに提案する。
AFMMは、変調構造と強度を分離し、安定した画像特徴に埋め込まれた透かしを誘導し、抽出中のホスト干渉を抑制することで、コンテンツ認識機能制御を可能にする。
CIMの下では、双方のAFMMは、埋め込み動作と抽出目的とを整合させるクローズドループのコラボレーションを形成する。
このアーキテクチャレベルの再設計は、ウォーターマーキングシステムで堅牢性がどのように学習されるかを変える。
徹底的な歪みシミュレーションに頼るのではなく、埋め込みと抽出の間の協調的な表現学習からロバストネスが生まれる。
実世界およびAI生成データセットの実験により、提案手法は、高い知覚品質を維持しながら、透かし抽出精度の最先端アプローチを一貫して上回り、強靭性と一般化を示すことを示した。
関連論文リスト
- Masked Feature Modeling Enhances Adaptive Segmentation [9.279607578922683]
Masked Feature Modeling (MFM) は機能マスキングと再構成を行う新しい補助タスクである。
MFMは学習目標をメインセグメンテーションタスクと整合させ、DeepLabやDAFormerといった標準アーキテクチャとの互換性を確保する。
効率的な再構築を容易にするために,推論時に共同で訓練されるが破棄される軽量補助モジュールであるRebuilderを導入する。
論文 参考訳(メタデータ) (2025-09-17T08:16:05Z) - Semi-supervised Semantic Segmentation with Multi-Constraint Consistency Learning [81.02648336552421]
本稿では,エンコーダとデコーダの段階的拡張を容易にするためのマルチ制約一貫性学習手法を提案する。
自己適応型特徴マスキングとノイズ注入は、デコーダの堅牢な学習のための特徴を摂動させるために、インスタンス固有の方法で設計されている。
Pascal VOC2012およびCityscapesデータセットの実験結果から,提案したMCCLが新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2025-03-23T03:21:33Z) - WMFormer++: Nested Transformer for Visible Watermark Removal via Implict
Joint Learning [68.00975867932331]
既存の透かし除去法は主にタスク固有のデコーダブランチを持つUNetに依存している。
両分野の情報を包括的に統合するために,暗黙的な共同学習パラダイムを導入する。
その結果、既存の最先端手法をはるかに上回る、我々のアプローチの顕著な優位性を示した。
論文 参考訳(メタデータ) (2023-08-20T07:56:34Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - A Deep Unrolling Model with Hybrid Optimization Structure for Hyperspectral Image Deconvolution [50.13564338607482]
本稿では,DeepMixと呼ばれるハイパースペクトルデコンボリューション問題に対する新しい最適化フレームワークを提案する。
これは3つの異なるモジュール、すなわちデータ一貫性モジュール、手作りの正規化器の効果を強制するモジュール、および装飾モジュールで構成されている。
本研究は,他のモジュールの協調作業によって達成される進歩を維持するために設計された,文脈を考慮した認知型モジュールを提案する。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - Self-supervised Correlation Mining Network for Person Image Generation [9.505343361614928]
人物画像生成は、ソース画像の非剛性変形を実現することを目的としている。
特徴空間のソース画像を再構成する自己教師付き相関マイニングネットワーク(SCM-Net)を提案する。
クロススケールポーズ変換の忠実度を向上させるために,グラフに基づく身体構造保持損失を提案する。
論文 参考訳(メタデータ) (2021-11-26T03:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。