論文の概要: InvZW: Invariant Feature Learning via Noise-Adversarial Training for Robust Image Zero-Watermarking
- arxiv url: http://arxiv.org/abs/2506.20370v1
- Date: Wed, 25 Jun 2025 12:32:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.733961
- Title: InvZW: Invariant Feature Learning via Noise-Adversarial Training for Robust Image Zero-Watermarking
- Title(参考訳): InvZW:ロバスト画像ゼロウォーターマーキングのための雑音-逆学習による不変特徴学習
- Authors: Abdullah All Tanvir, Xin Zhong,
- Abstract要約: 本稿では,歪み不変な特徴学習に基づく頑健な画像ゼロ透かしのための新しいディープラーニングフレームワークを提案する。
ゼロ透かし方式として,本手法では,元の画像は変更されず,特徴空間の最適化を通じて参照シグネチャを学習する。
- 参考スコア(独自算出の注目度): 1.4042211166197214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a novel deep learning framework for robust image zero-watermarking based on distortion-invariant feature learning. As a zero-watermarking scheme, our method leaves the original image unaltered and learns a reference signature through optimization in the feature space. The proposed framework consists of two key modules. In the first module, a feature extractor is trained via noise-adversarial learning to generate representations that are both invariant to distortions and semantically expressive. This is achieved by combining adversarial supervision against a distortion discriminator and a reconstruction constraint to retain image content. In the second module, we design a learning-based multibit zero-watermarking scheme where the trained invariant features are projected onto a set of trainable reference codes optimized to match a target binary message. Extensive experiments on diverse image datasets and a wide range of distortions show that our method achieves state-of-the-art robustness in both feature stability and watermark recovery. Comparative evaluations against existing self-supervised and deep watermarking techniques further highlight the superiority of our framework in generalization and robustness.
- Abstract(参考訳): 本稿では,歪み不変な特徴学習に基づく頑健な画像ゼロ透かしのための新しいディープラーニングフレームワークを提案する。
ゼロ透かし方式として,本手法では,元の画像は変更されず,特徴空間の最適化を通じて参照シグネチャを学習する。
提案するフレームワークは2つの主要なモジュールで構成されている。
第1モジュールでは、特徴抽出器をノイズ・逆数学習により訓練し、歪みと意味表現の両方に不変な表現を生成する。
これは、歪み判別器に対する敵の監督と、画像内容を保持するための再構成制約を組み合わせることで達成される。
第2のモジュールでは、学習ベースのマルチビットゼロ透かしスキームを設計し、トレーニング可能な参照コードのセットにトレーニングされた不変性を投影し、ターゲットのバイナリメッセージに合わせるように最適化する。
多様な画像データセットと広範囲の歪みに関する広範囲な実験により,本手法は特徴安定性と透かし回復の両面において,最先端のロバスト性を実現することを示す。
既存の自己監督・深層透かし技術との比較評価は, 一般化・堅牢性における我々の枠組みの優位性をさらに強調する。
関連論文リスト
- Text-Guided Image Invariant Feature Learning for Robust Image Watermarking [1.4042211166197214]
本稿では,ロバストな画像透かしのための新しいテキスト誘導不変特徴学習フレームワークを提案する。
提案手法を複数のデータセットにまたがって評価し,様々な画像変換に対して優れたロバスト性を示す。
論文 参考訳(メタデータ) (2025-03-18T01:32:38Z) - A Spitting Image: Modular Superpixel Tokenization in Vision Transformers [0.0]
Vision Transformer (ViT) アーキテクチャは伝統的に、画像の意味的内容に依存しないトークン化のためのグリッドベースのアプローチを採用している。
本稿では,トークン化と特徴抽出を分離するモジュール型スーパーピクセルトークン化戦略を提案する。
論文 参考訳(メタデータ) (2024-08-14T17:28:58Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - Fine-grained Image-to-LiDAR Contrastive Distillation with Visual Foundation Models [55.99654128127689]
Visual Foundation Models (VFM) は、弱い教師付きピクセル対ポイントのコントラスト蒸留のためのセマンティックラベルを生成するために使用される。
我々は,空間分布とカテゴリー周波数の不均衡に対応するために,点のサンプリング確率を適応させる。
我々の手法は、下流タスクにおける既存の画像からLiDARへのコントラスト蒸留法を一貫して超越している。
論文 参考訳(メタデータ) (2024-05-23T07:48:19Z) - Robust One-shot Segmentation of Brain Tissues via Image-aligned Style
Transformation [13.430851964063534]
本稿では,脳組織のワンショットセグメンテーションのための2モデル反復学習を強化するために,新しい画像整列型変換を提案する。
2つの公開データセットによる実験結果から,1)完全教師付き手法と比較して,提案手法の競合セグメンテーション性能が向上し,2)Diceの平均値が4.67%向上した他の最先端技術よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-26T09:14:01Z) - MAGIC: Mask-Guided Image Synthesis by Inverting a Quasi-Robust
Classifier [37.774220727662914]
単一画像の操作を制御できるワンショットマスク誘導画像合成法を提案する。
提案手法は,事前学習した準ロバスト分類器から構造勾配を利用する。
MAGICは入力上の勾配を集約し、ガイドバイナリマスクによって駆動される。
論文 参考訳(メタデータ) (2022-09-23T12:15:40Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。