論文の概要: Unifying Watermarking via Dimension-Aware Mapping
- arxiv url: http://arxiv.org/abs/2602.03373v1
- Date: Tue, 03 Feb 2026 10:49:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.399112
- Title: Unifying Watermarking via Dimension-Aware Mapping
- Title(参考訳): 次元認識マッピングによる透かしの統一
- Authors: Jiale Meng, Runyi Hu, Jie Zhang, Zheming Lu, Ivor Tsang, Tianwei Zhang,
- Abstract要約: DiMは、次元認識問題として透かしを定式化する新しい多次元透かしフレームワークである。
埋め込みと抽出の次元的構成がウォーターマーキングの挙動を決定づけていることが判明した。
- 参考スコア(独自算出の注目度): 16.855188162653565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep watermarking methods often share similar encoder-decoder architectures, yet differ substantially in their functional behaviors. We propose DiM, a new multi-dimensional watermarking framework that formulates watermarking as a dimension-aware mapping problem, thereby unifying existing watermarking methods at the functional level. Under DiM, watermark information is modeled as payloads of different dimensionalities, including one-dimensional binary messages, two-dimensional spatial masks, and three-dimensional spatiotemporal structures. We find that the dimensional configuration of embedding and extraction largely determines the resulting watermarking behavior. Same-dimensional mappings preserve payload structure and support fine-grained control, while cross-dimensional mappings enable spatial or spatiotemporal localization. We instantiate DiM in the video domain, where spatiotemporal representations enable a broader set of dimension mappings. Experiments demonstrate that varying only the embedding and extraction dimensions, without architectural changes, leads to different watermarking capabilities, including spatiotemporal tamper localization, local embedding control, and recovery of temporal order under frame disruptions.
- Abstract(参考訳): ディープウォーターマーキング法は、しばしば類似のエンコーダ-デコーダアーキテクチャを共有するが、その機能的挙動は著しく異なる。
本研究では,次元対応型マッピング問題として透かしを定式化する多次元透かしフレームワークであるDiMを提案し,既存の透かし手法を機能レベルで統一する。
DiMでは、透かし情報は、1次元のバイナリメッセージ、2次元の空間マスク、3次元の時空間構造を含む異なる次元のペイロードとしてモデル化される。
埋め込みおよび抽出の次元的構成は、結果の透かしの挙動を大きく決定する。
同じ次元のマッピングはペイロード構造を保持し、きめ細かい制御をサポートし、一方、クロス次元のマッピングは空間的あるいは時空間的局所化を可能にする。
ビデオ領域でDiMをインスタンス化し、時空間表現はより広い次元のマッピングを可能にする。
実験により, 建築的変化を伴わない埋没次元と抽出次元だけの変化は, 時空間タンパの局所化, 局所埋込制御, フレーム破壊下での時間秩序の回復など, 異なる透かし能力をもたらすことが示された。
関連論文リスト
- WMFormer++: Nested Transformer for Visible Watermark Removal via Implict
Joint Learning [68.00975867932331]
既存の透かし除去法は主にタスク固有のデコーダブランチを持つUNetに依存している。
両分野の情報を包括的に統合するために,暗黙的な共同学習パラダイムを導入する。
その結果、既存の最先端手法をはるかに上回る、我々のアプローチの顕著な優位性を示した。
論文 参考訳(メタデータ) (2023-08-20T07:56:34Z) - Divided Attention: Unsupervised Multi-Object Discovery with Contextually Separated Slots [65.302728042116]
意味的アノテーションがない場合の視覚知覚における物体の出現について検討する。
得られたモデルは、監督を受けておらず、事前訓練された特徴を一切使用していないが、画像の領域を複数の移動領域に分割することができる。
結果として得られる動き分節法は、未知のさまざまなオブジェクトをリアルタイムで処理することができる。
論文 参考訳(メタデータ) (2023-04-04T00:26:13Z) - PlaneSDF-based Change Detection for Long-term Dense Mapping [10.159737713094119]
我々はPlane Signed Distance Fields(PlaneSDF)と呼ばれる新しい地図表現に基づく変更検出の問題について検討する。
ソースとターゲットシーンの点群を考慮し,PlaneSDFに基づく3段階の変更検出手法を提案する。
合成と実世界の両方のデータセットに対する我々のアプローチを評価し、オブジェクト検出のタスクを通じてその効果を実証する。
論文 参考訳(メタデータ) (2022-07-18T00:19:45Z) - PointMCD: Boosting Deep Point Cloud Encoders via Multi-view Cross-modal
Distillation for 3D Shape Recognition [55.38462937452363]
本稿では,教師として事前訓練されたディープイメージエンコーダ,学生としてディープポイントエンコーダを含む多視点クロスモーダル蒸留アーキテクチャを提案する。
複数ビューの視覚的および幾何学的記述子をペアワイズにアライメントすることで、より強力なディープポイントエンコーダを、疲労や複雑なネットワーク修正を伴わずに得ることができる。
論文 参考訳(メタデータ) (2022-07-07T07:23:20Z) - Watermarking Images in Self-Supervised Latent Spaces [75.99287942537138]
我々は,自己教師型アプローチに照らして,事前学習した深層ネットワークに基づく透かし手法を再検討する。
我々は、マーク時間におけるデータの増大を利用して、マークとバイナリのメッセージをその潜在空間に埋め込む方法を提案する。
論文 参考訳(メタデータ) (2021-12-17T15:52:46Z) - 3d sequential image mosaicing for underwater navigation and mapping [0.0]
本稿では,画像に基づくリアルタイムナビゲーションとマッピングアルゴリズムを組み合わせた画像モザイキングアルゴリズムを提案する。
実施手順は詳述され、様々な水中シナリオにおける実験が提示され議論された。
論文 参考訳(メタデータ) (2021-10-04T12:32:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。