論文の概要: Bridging Knowledge Gap Between Image Inpainting and Large-Area Visible Watermark Removal
- arxiv url: http://arxiv.org/abs/2504.04687v1
- Date: Mon, 07 Apr 2025 02:37:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:13:27.999208
- Title: Bridging Knowledge Gap Between Image Inpainting and Large-Area Visible Watermark Removal
- Title(参考訳): 画像塗布と大面積可視性透かし除去の間のブリッジング知識ギャップ
- Authors: Yicheng Leng, Chaowei Fang, Junye Chen, Yixiang Fang, Sheng Li, Guanbin Li,
- Abstract要約: 本稿では,事前学習した画像の塗装モデルの表現能力を活用する新しい特徴適応フレームワークを提案する。
本手法は, 透かしの残像の残像を塗布バックボーンモデルに流し込むことにより, 透かしと透かし除去の知識ギャップを埋めるものである。
高品質な透かしマスクへの依存を緩和するために,粗い透かしマスクを用いて推論プロセスを導出する新たな訓練パラダイムを導入する。
- 参考スコア(独自算出の注目度): 57.84348166457113
- License:
- Abstract: Visible watermark removal which involves watermark cleaning and background content restoration is pivotal to evaluate the resilience of watermarks. Existing deep neural network (DNN)-based models still struggle with large-area watermarks and are overly dependent on the quality of watermark mask prediction. To overcome these challenges, we introduce a novel feature adapting framework that leverages the representation modeling capacity of a pre-trained image inpainting model. Our approach bridges the knowledge gap between image inpainting and watermark removal by fusing information of the residual background content beneath watermarks into the inpainting backbone model. We establish a dual-branch system to capture and embed features from the residual background content, which are merged into intermediate features of the inpainting backbone model via gated feature fusion modules. Moreover, for relieving the dependence on high-quality watermark masks, we introduce a new training paradigm by utilizing coarse watermark masks to guide the inference process. This contributes to a visible image removal model which is insensitive to the quality of watermark mask during testing. Extensive experiments on both a large-scale synthesized dataset and a real-world dataset demonstrate that our approach significantly outperforms existing state-of-the-art methods. The source code is available in the supplementary materials.
- Abstract(参考訳): 透かしのレジリエンスを評価するために,透かしの洗浄とバックグラウンドコンテンツの復元を含む可視的透かし除去が重要である。
既存のディープニューラルネットワーク(DNN)ベースのモデルはまだ大面積の透かしに苦戦しており、透かしマスクの予測の品質に過度に依存している。
これらの課題を克服するために,事前学習した画像インペイントモデルの表現モデリング能力を活用する新しい特徴適応フレームワークを提案する。
本手法は, 透かしの残像の残像を塗布バックボーンモデルに流し込むことにより, 透かしと透かし除去の知識ギャップを埋めるものである。
我々は,残像から特徴を捕捉し,埋め込むデュアルブランチシステムを構築し,それをゲート機能融合モジュールを介して,インペインティングバックボーンモデルの中間機能にマージする。
さらに,高品質な透かしマスクへの依存を緩和するために,粗い透かしマスクを用いて推論プロセスを導出する新たな訓練パラダイムを導入する。
これは、テスト中の透かしマスクの品質に敏感な可視画像除去モデルに寄与する。
大規模な合成データセットと実世界のデータセットの両方に関する大規模な実験は、我々のアプローチが既存の最先端の手法を大きく上回っていることを示している。
ソースコードは補足資料で入手できる。
関連論文リスト
- Dynamic watermarks in images generated by diffusion models [46.1135899490656]
高忠実度テキストから画像への拡散モデルが視覚コンテンツ生成に革命をもたらしたが、その普及は重大な倫理的懸念を提起している。
本稿では,拡散モデルのための新しい多段階透かしフレームワークを提案する。
我々の研究は、モデルオーナシップの検証と誤用防止のためのスケーラブルなソリューションを提供することで、AI生成コンテンツセキュリティの分野を前進させます。
論文 参考訳(メタデータ) (2025-02-13T03:23:17Z) - Image Watermarks are Removable Using Controllable Regeneration from Clean Noise [26.09012436917272]
透かし技法の重要な特徴は、様々な操作に対する頑丈さである。
本稿では,最先端の透かし手法を効果的に無効化できる透かし除去手法を提案する。
本手法は,既存の再生手法と比較して,視覚的整合性/品質の向上と透かし除去性能の向上を実現している。
論文 参考訳(メタデータ) (2024-10-07T20:04:29Z) - Trigger-Based Fragile Model Watermarking for Image Transformation Networks [2.38776871944507]
脆弱な透かしでは、微妙な透かしが、改ざん時に透かしが壊れるように、物体に埋め込まれる。
画像変換・生成ネットワークのための新規なトリガ型フラクタモデル透かしシステムを提案する。
私たちのアプローチは、堅牢な透かしとは別として、さまざまなデータセットや攻撃に対して、モデルのソースと整合性を効果的に検証します。
論文 参考訳(メタデータ) (2024-09-28T19:34:55Z) - JIGMARK: A Black-Box Approach for Enhancing Image Watermarks against Diffusion Model Edits [76.25962336540226]
JIGMARKは、コントラスト学習による堅牢性を高める、第一級の透かし技術である。
本評価の結果,JIGMARKは既存の透かし法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-06T03:31:41Z) - BrushNet: A Plug-and-Play Image Inpainting Model with Decomposed
Dual-Branch Diffusion [61.90969199199739]
BrushNetは、ピクセルレベルのマスク付きイメージ機能を事前訓練されたDMに埋め込むために設計された、新しいプラグアンドプレイデュアルブランチモデルである。
BrushNetは、画像品質、マスク領域保存、テキストコヒーレンスを含む7つの主要な指標で、既存のモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-11T17:59:31Z) - Removing Interference and Recovering Content Imaginatively for Visible
Watermark Removal [63.576748565274706]
本研究では,Removing Interference and Recovering Content Imaginatively (RIRCI)フレームワークについて紹介する。
RIRCIは2段階のアプローチを具現化しており、最初のフェーズは透かし成分の識別と分離に焦点を当て、次のフェーズは背景コンテンツの復元に焦点を当てている。
本モデルでは,半透明透かしの下の固有背景情報を完全に探索できるデュアルパスネットワークを用いる。
論文 参考訳(メタデータ) (2023-12-22T02:19:23Z) - WMFormer++: Nested Transformer for Visible Watermark Removal via Implict
Joint Learning [68.00975867932331]
既存の透かし除去法は主にタスク固有のデコーダブランチを持つUNetに依存している。
両分野の情報を包括的に統合するために,暗黙的な共同学習パラダイムを導入する。
その結果、既存の最先端手法をはるかに上回る、我々のアプローチの顕著な優位性を示した。
論文 参考訳(メタデータ) (2023-08-20T07:56:34Z) - Watermarking Images in Self-Supervised Latent Spaces [75.99287942537138]
我々は,自己教師型アプローチに照らして,事前学習した深層ネットワークに基づく透かし手法を再検討する。
我々は、マーク時間におけるデータの増大を利用して、マークとバイナリのメッセージをその潜在空間に埋め込む方法を提案する。
論文 参考訳(メタデータ) (2021-12-17T15:52:46Z) - Visible Watermark Removal via Self-calibrated Localization and
Background Refinement [21.632823897244037]
画像に透かした透かしを重ねることで、著作権問題に対処する強力な武器を提供する。
現代の透かし除去法は、透かしの局所化と背景復元を同時に行う。
上記の問題に対処する2段階のマルチタスクネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-08T06:43:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。