論文の概要: FontGuard: A Robust Font Watermarking Approach Leveraging Deep Font Knowledge
- arxiv url: http://arxiv.org/abs/2504.03128v1
- Date: Fri, 04 Apr 2025 02:39:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 21:18:50.274674
- Title: FontGuard: A Robust Font Watermarking Approach Leveraging Deep Font Knowledge
- Title(参考訳): FontGuard: 深いフォント知識を活用したロバストなフォント透かしアプローチ
- Authors: Kahim Wong, Jicheng Zhou, Kemou Li, Yain-Whar Si, Xiaowei Wu, Jiantao Zhou,
- Abstract要約: フォントモデルと言語誘導型コントラスト学習の能力を利用する新しいフォント透かしモデルであるFontGuardを紹介する。
FontGuardは、隠れたスタイルの機能を変更してフォントを変更する。
このデコーダでは,画像テキストによるコントラスト学習を用いて埋め込みビットを再構成し,様々な実世界の伝送歪みに対して良好なロバスト性を実現する。
- 参考スコア(独自算出の注目度): 14.545769739571291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of AI-generated content brings significant concerns on the forensic and security issues such as source tracing, copyright protection, etc, highlighting the need for effective watermarking technologies. Font-based text watermarking has emerged as an effective solution to embed information, which could ensure copyright, traceability, and compliance of the generated text content. Existing font watermarking methods usually neglect essential font knowledge, which leads to watermarked fonts of low quality and limited embedding capacity. These methods are also vulnerable to real-world distortions, low-resolution fonts, and inaccurate character segmentation. In this paper, we introduce FontGuard, a novel font watermarking model that harnesses the capabilities of font models and language-guided contrastive learning. Unlike previous methods that focus solely on the pixel-level alteration, FontGuard modifies fonts by altering hidden style features, resulting in better font quality upon watermark embedding. We also leverage the font manifold to increase the embedding capacity of our proposed method by generating substantial font variants closely resembling the original font. Furthermore, in the decoder, we employ an image-text contrastive learning to reconstruct the embedded bits, which can achieve desirable robustness against various real-world transmission distortions. FontGuard outperforms state-of-the-art methods by +5.4%, +7.4%, and +5.8% in decoding accuracy under synthetic, cross-media, and online social network distortions, respectively, while improving the visual quality by 52.7% in terms of LPIPS. Moreover, FontGuard uniquely allows the generation of watermarked fonts for unseen fonts without re-training the network. The code and dataset are available at https://github.com/KAHIMWONG/FontGuard.
- Abstract(参考訳): AI生成コンテンツの普及は、ソーストレースや著作権保護といった法医学的およびセキュリティ上の問題に大きな懸念をもたらし、効果的な透かし技術の必要性を強調している。
フォントベースのテキスト透かしは、生成したテキストコンテンツの著作権、トレーサビリティ、コンプライアンスを保証するために、情報を埋め込む効果的なソリューションとして登場した。
既存のフォント透かし法は通常、必須フォント知識を無視し、低品質で埋め込み能力に制限のある透かしフォントに繋がる。
これらの手法は、現実世界の歪み、低解像度フォント、不正確な文字分割にも脆弱である。
本稿では,フォントモデルと言語指導によるコントラスト学習の能力を活用する新しいフォント透かしモデルであるFontGuardを紹介する。
ピクセルレベルの変更だけにフォーカスする従来の方法とは異なり、FontGuardは隠れたスタイルの機能を変更してフォントを変更する。
また,提案手法の埋め込み能力を高めるためにフォント多様体を活用し,元のフォントによく似た相当なフォント変種を生成する。
さらに,デコーダでは,画像テキストによるコントラスト学習を用いて組込みビットを再構成し,様々な実世界の伝送歪みに対して良好なロバスト性を実現する。
FontGuardは最先端の手法を+5.4%、+7.4%、+5.8%で上回り、合成、クロスメディア、オンラインソーシャルネットワークの歪み下での復号精度は+5.8%、LPIPSでは52.7%向上している。
さらにFontGuardは、ネットワークを再トレーニングすることなく、目に見えないフォントのための透かし付きフォントを生成することができる。
コードとデータセットはhttps://github.com/KAHIMWONG/FontGuard.comで公開されている。
関連論文リスト
- Improving the Generation Quality of Watermarked Large Language Models
via Word Importance Scoring [81.62249424226084]
トークンレベルの透かしは、トークン確率分布を変更して生成されたテキストに透かしを挿入する。
この透かしアルゴリズムは、生成中のロジットを変化させ、劣化したテキストの品質につながる可能性がある。
We propose to improve the quality of texts generated by a watermarked language model by Watermarking with Importance Scoring (WIS)。
論文 参考訳(メタデータ) (2023-11-16T08:36:00Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models [64.89896692649589]
テキスト・画像拡散モデルの微調整に適した透かしシステムであるFT-Shieldを提案する。
FT-Shieldは新しい透かしの生成と検出戦略を設計することで著作権保護の課題に対処する。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - Robust Multi-bit Natural Language Watermarking through Invariant
Features [28.4935678626116]
元々の自然言語の内容は違法な海賊行為や潜在的な誤用の影響を受けやすい。
海賊行為を効果的に防ぎ、著作権を保護するためには、マルチビットの透かしフレームワークが適切な情報を埋め込む必要がある。
本研究では,画像透かしからよく知られた提案に従うことにより,ペイロードとロバスト性を両立させる方法について検討する。
論文 参考訳(メタデータ) (2023-05-03T05:37:30Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Font Representation Learning via Paired-glyph Matching [15.358456947574913]
本稿では,フォントスタイルを潜在空間に埋め込む新しいフォント表現学習手法を提案する。
フォントを他者から識別的に表現するために,マッチングに基づくフォント表現学習モデルを提案する。
フォント表現学習方式は,既存のフォント表現学習手法よりも優れた一般化性能が得られることを示す。
論文 参考訳(メタデータ) (2022-11-20T12:27:27Z) - FONTNET: On-Device Font Understanding and Prediction Pipeline [1.5749416770494706]
フォント検出エンジンとフォント予測エンジンの2つのエンジンを提案する。
画像中のテキストのフォントスタイルを識別する新しいcnnアーキテクチャを開発した。
第2に、与えられたクエリフォントの類似フォントを予測するための新しいアルゴリズムを設計した。
第3に,インスタントメッセージングなどのリアルタイムアプリケーションにおいて,プライバシを確保し,レイテンシを改善するエンジンのオンデバイス全体を最適化し,デプロイしました。
論文 参考訳(メタデータ) (2021-03-30T08:11:24Z) - Few-shot Compositional Font Generation with Dual Memory [16.967987801167514]
我々は、新しいフォント生成フレームワークDual Memory-augmented Font Generation Network (DM-Font)を提案する。
我々は、構成性を活用するために、メモリコンポーネントとグローバルコンテキスト認識をジェネレータに採用する。
韓国手書きフォントとタイ手書きフォントの実験では,本手法が忠実なスタイリングによるサンプルの品質を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-05-21T08:13:40Z) - Attribute2Font: Creating Fonts You Want From Attributes [32.82714291856353]
Attribute2Fontは、属性値に基づいて条件付けられた任意の2つのフォント間でフォントスタイルの転送を実行するように訓練されている。
Attribute Attention Moduleと呼ばれる新しいユニットは、生成されたグリフ画像が顕著なフォント属性をより具体化するように設計されている。
論文 参考訳(メタデータ) (2020-05-16T04:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。