論文の概要: TIACam: Text-Anchored Invariant Feature Learning with Auto-Augmentation for Camera-Robust Zero-Watermarking
- arxiv url: http://arxiv.org/abs/2602.18863v1
- Date: Sat, 21 Feb 2026 15:06:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.364064
- Title: TIACam: Text-Anchored Invariant Feature Learning with Auto-Augmentation for Camera-Robust Zero-Watermarking
- Title(参考訳): TIACam: カメラ・ロバストゼロウォーターマーキングのための自動拡張によるテキストアンコール不変特徴学習
- Authors: Abdullah All Tanvir, Agnibh Dasgupta, Xin Zhong,
- Abstract要約: TIACamは、カメラロスゼロウォーターマーキングのための自動拡張を備えたテキストアンコール不変な特徴学習フレームワークである。
合成カメラと実世界のカメラの両方の実験は、TIACamが特徴安定性と透かし抽出精度を達成することを示した。
- 参考スコア(独自算出の注目度): 0.5429166905724048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera recapture introduces complex optical degradations, such as perspective warping, illumination shifts, and Moiré interference, that remain challenging for deep watermarking systems. We present TIACam, a text-anchored invariant feature learning framework with auto-augmentation for camera-robust zero-watermarking. The method integrates three key innovations: (1) a learnable auto-augmentor that discovers camera-like distortions through differentiable geometric, photometric, and Moiré operators; (2) a text-anchored invariant feature learner that enforces semantic consistency via cross-modal adversarial alignment between image and text; and (3) a zero-watermarking head that binds binary messages in the invariant feature space without modifying image pixels. This unified formulation jointly optimizes invariance, semantic alignment, and watermark recoverability. Extensive experiments on both synthetic and real-world camera captures demonstrate that TIACam achieves state-of-the-art feature stability and watermark extraction accuracy, establishing a principled bridge between multimodal invariance learning and physically robust zero-watermarking.
- Abstract(参考訳): カメラの再捕獲は、遠近点のワープ、照明シフト、モアレ干渉などの複雑な光学劣化を導入し、深い透かしシステムでは依然として困難である。
TIACamは、カメラロスゼロウォーターマーキングのための自動拡張によるテキスト変換不変な特徴学習フレームワークである。
本手法は,(1)幾何学的,測光的,モアレ演算子によるカメラライクな歪みを検出する学習可能な自動増幅器,(2)画像とテキスト間の相互対角的アライメントによる意味的一貫性を強制するテキスト変換不変特徴学習器,(3)画像画素を変更せずに特徴空間内のバイナリメッセージをバインドするゼロ透かしヘッド,の3つの重要なイノベーションを統合する。
この統一された定式化は、不変性、セマンティックアライメント、透かし復元性を共同で最適化する。
合成カメラと実世界カメラの両方での広範囲な実験により、TAACamは最先端の特徴安定性と透かし抽出精度を達成し、多モード不変学習と物理的に堅牢なゼロ透かしの間に原則的な橋渡しを確立した。
関連論文リスト
- RAVEN: Erasing Invisible Watermarks via Novel View Synthesis [35.417500510522835]
本研究では,透かし除去をビュー合成問題として再検討することにより,目に見えない透かしの根本的な脆弱性を明らかにする。
我々の重要な洞察は、視覚的忠実性を維持しながら、同じ意味的内容の知覚的に一貫した代替ビューを生成し、埋め込みされた透かしを自然に取り除くことである。
本稿では, 静止空間における制御幾何変換を適用したゼロショット拡散に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-13T18:59:58Z) - Pixel Seal: Adversarial-only training for invisible image and video watermarking [43.360750005378954]
目に見えない透かしは、デジタルコンテンツの証明を辿るのに不可欠である。
現在のアプローチは、しばしば真の非受容性に対して堅牢さのバランスをとるのに苦労します。
この研究はPixel Sealを導入し、画像とビデオの透かしのための新しい最先端技術を構築した。
論文 参考訳(メタデータ) (2025-12-18T18:42:19Z) - InvZW: Invariant Feature Learning via Noise-Adversarial Training for Robust Image Zero-Watermarking [1.4042211166197214]
本稿では,歪み不変な特徴学習に基づく頑健な画像ゼロ透かしのための新しいディープラーニングフレームワークを提案する。
ゼロ透かし方式として,本手法では,元の画像は変更されず,特徴空間の最適化を通じて参照シグネチャを学習する。
論文 参考訳(メタデータ) (2025-06-25T12:32:08Z) - Text-Guided Image Invariant Feature Learning for Robust Image Watermarking [1.4042211166197214]
本稿では,ロバストな画像透かしのための新しいテキスト誘導不変特徴学習フレームワークを提案する。
提案手法を複数のデータセットにまたがって評価し,様々な画像変換に対して優れたロバスト性を示す。
論文 参考訳(メタデータ) (2025-03-18T01:32:38Z) - Fine-grained Image-to-LiDAR Contrastive Distillation with Visual Foundation Models [55.99654128127689]
Visual Foundation Models (VFM) は、弱い教師付きピクセル対ポイントのコントラスト蒸留のためのセマンティックラベルを生成するために使用される。
我々は,空間分布とカテゴリー周波数の不均衡に対応するために,点のサンプリング確率を適応させる。
我々の手法は、下流タスクにおける既存の画像からLiDARへのコントラスト蒸留法を一貫して超越している。
論文 参考訳(メタデータ) (2024-05-23T07:48:19Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - WMFormer++: Nested Transformer for Visible Watermark Removal via Implict
Joint Learning [68.00975867932331]
既存の透かし除去法は主にタスク固有のデコーダブランチを持つUNetに依存している。
両分野の情報を包括的に統合するために,暗黙的な共同学習パラダイムを導入する。
その結果、既存の最先端手法をはるかに上回る、我々のアプローチの顕著な優位性を示した。
論文 参考訳(メタデータ) (2023-08-20T07:56:34Z) - Exposure Fusion for Hand-held Camera Inputs with Optical Flow and
PatchMatch [53.149395644547226]
ハンドヘルドカメラによるマルチ露光画像融合のためのハイブリッド合成法を提案する。
提案手法は,このような動作に対処し,各入力の露光情報を効果的に維持する。
実験の結果,本手法の有効性とロバスト性を示した。
論文 参考訳(メタデータ) (2023-04-10T09:06:37Z) - Self-supervised Character-to-Character Distillation for Text Recognition [54.12490492265583]
そこで本研究では,テキスト表現学習を容易にする汎用的な拡張を可能にする,自己教師型文字-文字-文字間蒸留法CCDを提案する。
CCDは、テキスト認識の1.38%、テキストセグメンテーションの1.7%、PSNRの0.24dB、超解像の0.0321(SSIM)で、最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-11-01T05:48:18Z) - Degradation-agnostic Correspondence from Resolution-asymmetric Stereo [96.03964515969652]
テレワイドカメラシステムで取得した解像度の異なる2枚の画像からステレオマッチングの問題を考察する。
特徴量整合性という画像空間の代わりに特徴空間に2つのビュー間の整合性を課すことを提案する。
測光損失をトレーニングしたステレオマッチングネットワークは最適ではないが, 特徴抽出器は劣化に依存しない, マッチング特有の特徴を生成できる。
論文 参考訳(メタデータ) (2022-04-04T12:24:34Z) - GenRadar: Self-supervised Probabilistic Camera Synthesis based on Radar
Frequencies [12.707035083920227]
この研究は、確率的シーン再構築のための独自の自己学習融合アプローチにおいて、両方のセンサタイプの相補的な強度を組み合わせる。
提案アルゴリズムは類似性を生かし、訓練中に異なる特徴レベルで両方のドメイン間の対応を確立する。
これらの離散トークンは、最終的にそれぞれの周囲のインストラクティブなビューに変換され、潜在的な危険を視覚的に知覚することができる。
論文 参考訳(メタデータ) (2021-07-19T15:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。