論文の概要: TRACE: Structure-Aware Character Encoding for Robust and Generalizable Document Watermarking
- arxiv url: http://arxiv.org/abs/2603.12873v1
- Date: Fri, 13 Mar 2026 10:21:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.048534
- Title: TRACE: Structure-Aware Character Encoding for Robust and Generalizable Document Watermarking
- Title(参考訳): TRACE:ロバストで一般化可能な文書透かしのための構造認識文字符号化
- Authors: Jiale Meng, Jie Zhang, Runyi Hu, Zhe-Ming Lu, Tianwei Zhang, Yiming Li,
- Abstract要約: TRACEは、ローカライズされた文字エンコーディングに拡散モデルを活用する構造認識フレームワークである。
nameは複数の言語やフォントにまたがる広範な一般化を実現しており、特に実用的な文書セキュリティアプリケーションに適している。
- 参考スコア(独自算出の注目度): 24.431834006324006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose TRACE, a structure-aware framework leveraging diffusion models for localized character encoding to embed data. Unlike existing methods that rely on edge features or pre-defined codebooks, TRACE exploits character structures that provide inherent resistance to noise interference due to their stability and unified representation across diverse characters. Our framework comprises three key components: (1) adaptive diffusion initialization that automatically identifies handle points, target points, and editing regions through specialized algorithms including movement probability estimator (MPE), target point estimation (TPE) and mask drawing model (MDM), (2) guided diffusion encoding for precise movement of selected point, and (3) masked region replacement with a specialized loss function to minimize feature alterations after the diffusion process. Comprehensive experiments demonstrate \name{}'s superior performance over state-of-the-art methods, achieving more than 5 dB improvement in PSNR and 5\% higher extraction accuracy following cross-media transmission. \name{} achieves broad generalizability across multiple languages and fonts, making it particularly suitable for practical document security applications.
- Abstract(参考訳): 本研究では,局所化文字エンコーディングのための拡散モデルを利用した構造認識フレームワークTRACEを提案する。
エッジ機能や事前に定義されたコードブックに依存する既存の方法とは異なり、TRACEは様々な文字の安定性と統一された表現のためにノイズ干渉に対する固有の耐性を提供する文字構造を利用する。
本フレームワークは,(1)移動確率推定器(MPE),目標点推定(TPE),マスク描画モデル(MDM),(2)選択点の正確な移動のためのガイド付き拡散符号化,(3)特定損失関数によるマスク付き領域置換による特徴変化の最小化,といった特殊アルゴリズムを用いて,ハンドポイント,ターゲットポイント,編集領域を自動的に識別する適応拡散初期化を行う。
総合実験により,PSNRでは5dB以上の改善が達成され,クロスメディア伝送による抽出精度が5\%向上した。
\name{}は、複数の言語やフォントにまたがる広範な汎用性を実現し、実用的な文書セキュリティアプリケーションに特に適している。
関連論文リスト
- Entropy-Aware Structural Alignment for Zero-Shot Handwritten Chinese Character Recognition [7.632962062462334]
ゼロショット手書き漢字認識は、急進的な意味合成を活用することで、目に見えない文字を認識することを目的としている。
本稿では,情報理論モデリングにより視覚と意味のギャップを埋めるエントロピー対応構造アライメントネットワークを提案する。
ICDAR 2013データセットで55.04%の精度を達成し,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2026-02-03T16:08:40Z) - Do We Need Perfect Data? Leveraging Noise for Domain Generalized Segmentation [20.89655949578527]
本稿では,この制限を頑健な学習機会に変換するフレームワークFLEX-Segを提案する。
5つの実世界のデータセットに対する実験は、最先端の手法よりも一貫した改善を示している。
その結果、不完全な合成データを扱うための適応的戦略が、ドメインの一般化に優れた結果をもたらすことが検証された。
論文 参考訳(メタデータ) (2025-11-28T07:46:32Z) - Continual-MAE: Adaptive Distribution Masked Autoencoders for Continual Test-Time Adaptation [49.827306773992376]
連続的テスト時間適応(CTTA)は、ソース事前学習モデルから目標分布の連続的な変化に移行するために提案される。
提案手法は,CTTAタスクの分類とセグメンテーションの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T15:34:52Z) - Towards Compact 3D Representations via Point Feature Enhancement Masked
Autoencoders [52.66195794216989]
本稿では,コンパクトな3D表現を学習するために,ポイント特徴強調マスク付きオートエンコーダ(Point-FEMAE)を提案する。
Point-FEMAEはグローバルブランチとローカルブランチで構成され、潜在意味的特徴をキャプチャする。
本手法は, クロスモーダル方式と比較して, 事前学習効率を著しく向上させる。
論文 参考訳(メタデータ) (2023-12-17T14:17:05Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - Hierarchical Disentanglement-Alignment Network for Robust SAR Vehicle
Recognition [18.38295403066007]
HDANetは機能障害とアライメントを統合フレームワークに統合する。
提案手法は,MSTARデータセットにおいて,9つの動作条件にまたがる顕著なロバスト性を示す。
論文 参考訳(メタデータ) (2023-04-07T09:11:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。