論文の概要: Autoregressive Images Watermarking through Lexical Biasing: An Approach Resistant to Regeneration Attack
- arxiv url: http://arxiv.org/abs/2506.01011v1
- Date: Sun, 01 Jun 2025 13:44:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.700688
- Title: Autoregressive Images Watermarking through Lexical Biasing: An Approach Resistant to Regeneration Attack
- Title(参考訳): 語彙バイアスによる自己回帰画像の透かし : 再生攻撃に対するアプローチ
- Authors: Siqi Hui, Yiren Song, Sanping Zhou, Ye Deng, Wenli Huang, Jinjun Wang,
- Abstract要約: Lexical Bias Watermarking (LBW)は、自動回帰(AR)画像生成モデル用に設計された新しいフレームワークである。
LBWは、トークン選択を生成中に定義されたグリーンリストにバイアスすることで、トークンマップに直接透かしを埋める。
LBWは、特に再生攻撃に対する耐性において、優れた透かしの堅牢性を達成する。
- 参考スコア(独自算出の注目度): 23.533297233565857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autoregressive (AR) image generation models have gained increasing attention for their breakthroughs in synthesis quality, highlighting the need for robust watermarking to prevent misuse. However, existing in-generation watermarking techniques are primarily designed for diffusion models, where watermarks are embedded within diffusion latent states. This design poses significant challenges for direct adaptation to AR models, which generate images sequentially through token prediction. Moreover, diffusion-based regeneration attacks can effectively erase such watermarks by perturbing diffusion latent states. To address these challenges, we propose Lexical Bias Watermarking (LBW), a novel framework designed for AR models that resists regeneration attacks. LBW embeds watermarks directly into token maps by biasing token selection toward a predefined green list during generation. This approach ensures seamless integration with existing AR models and extends naturally to post-hoc watermarking. To increase the security against white-box attacks, instead of using a single green list, the green list for each image is randomly sampled from a pool of green lists. Watermark detection is performed via quantization and statistical analysis of the token distribution. Extensive experiments demonstrate that LBW achieves superior watermark robustness, particularly in resisting regeneration attacks.
- Abstract(参考訳): 自己回帰(AR)画像生成モデルは、合成品質の突破口として注目され、誤用を防ぐための堅牢な透かしの必要性が強調されている。
しかし、既存の次世代透かし技術は主に拡散モデルのために設計されており、透かしは拡散潜在状態に埋め込まれている。
この設計は、トークン予測を通じて画像を逐次生成するARモデルへの直接適応に重大な課題をもたらす。
さらに拡散型再生攻撃は拡散潜伏状態の摂動によってそのような透かしを効果的に消し去ることができる。
これらの課題に対処するために、再生攻撃に抵抗するARモデル用に設計された新しいフレームワークであるLexical Bias Watermarking (LBW)を提案する。
LBWは、トークン選択を生成中に定義されたグリーンリストにバイアスすることで、トークンマップに直接透かしを埋める。
このアプローチにより、既存のARモデルとのシームレスな統合が保証され、自然にポストホットなウォーターマーキングに拡張される。
単一のグリーンリストを使用する代わりに、ホワイトボックス攻撃に対するセキュリティを高めるために、各イメージのグリーンリストは、グリーンリストのプールからランダムにサンプリングされる。
トークン分布の量子化と統計的解析により透かし検出を行う。
大規模な実験により、LBWは特に再生障害に対する耐性において優れた透かし性を達成することが示された。
関連論文リスト
- TriniMark: A Robust Generative Speech Watermarking Method for Trinity-Level Attribution [3.1682080884953736]
本稿では,生成したコンテンツを認証するための生成的textbfspeech wattextbfermarking法(TriniMark)を提案する。
まず、音声の時間領域特徴に透かしを埋め込む構造軽量透かしエンコーダを設計する。
ビットワイドウォーターマーク回復のためのウォーターマーク復号器において、時間対応ゲート畳み込みネットワークを巧みに設計する。
論文 参考訳(メタデータ) (2025-04-29T08:23:28Z) - Gaussian Shading++: Rethinking the Realistic Deployment Challenge of Performance-Lossless Image Watermark for Diffusion Models [66.54457339638004]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,実世界の展開に適した拡散モデル透かし手法を提案する。
Gaussian Shading++はパフォーマンスのロスレス性を維持するだけでなく、ロバスト性の観点からも既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-04-21T11:18:16Z) - Secure and Efficient Watermarking for Latent Diffusion Models in Model Distribution Scenarios [23.64920988914223]
新しいセキュリティメカニズムは、透かしの漏れと透かしの脱出を防ぐように設計されている。
モデル分散シナリオにおける多様な攻撃に対する堅牢性を高めるために,透かし分布に基づく検証戦略を提案する。
論文 参考訳(メタデータ) (2025-02-18T23:55:33Z) - RoboSignature: Robust Signature and Watermarking on Network Attacks [0.5461938536945723]
本稿では,モデルが意図した透かしを埋め込む能力を阻害する新たな逆調整攻撃を提案する。
本研究は, 発生システムにおける潜在的な脆弱性を予知し, 防御することの重要性を強調した。
論文 参考訳(メタデータ) (2024-12-22T04:36:27Z) - JIGMARK: A Black-Box Approach for Enhancing Image Watermarks against Diffusion Model Edits [76.25962336540226]
JIGMARKは、コントラスト学習による堅牢性を高める、第一級の透かし技術である。
本評価の結果,JIGMARKは既存の透かし法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-06T03:31:41Z) - Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs [23.639074918667625]
ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
論文 参考訳(メタデータ) (2023-10-25T18:38:10Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。