論文の概要: Attack-Resistant Watermarking for AIGC Image Forensics via Diffusion-based Semantic Deflection
- arxiv url: http://arxiv.org/abs/2601.06639v1
- Date: Sat, 10 Jan 2026 17:49:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.913769
- Title: Attack-Resistant Watermarking for AIGC Image Forensics via Diffusion-based Semantic Deflection
- Title(参考訳): 拡散型セマンティックデフレクションによるAIGC画像鑑定のためのアタック耐性透かし
- Authors: Qingyu Liu, Yitao Zhang, Zhongjie Ba, Chao Shuai, Peng Cheng, Tianhang Zheng, Zhibo Wang,
- Abstract要約: 我々はAIGC著作権保護のためのトレーニングフリー固有の透かしフレームワークであるPAIを紹介する。
我々は,ユーザキーに応じて音素を微妙に操る新しい鍵条件偏向機構を設計する。
実験の結果、PAI 98.43%の精度が証明され、平均37.25%のSOTA法よりも改善され、高度なAIGC編集に対しても強力なローカライゼーション性能が保たれている。
- 参考スコア(独自算出の注目度): 22.992750993168404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Protecting the copyright of user-generated AI images is an emerging challenge as AIGC becomes pervasive in creative workflows. Existing watermarking methods (1) remain vulnerable to real-world adversarial threats, often forced to trade off between defenses against spoofing and removal attacks; and (2) cannot support semantic-level tamper localization. We introduce PAI, a training-free inherent watermarking framework for AIGC copyright protection, plug-and-play with diffusion-based AIGC services. PAI simultaneously provides three key functionalities: robust ownership verification, attack detection, and semantic-level tampering localization. Unlike existing inherent watermark methods that only embed watermarks at noise initialization of diffusion models, we design a novel key-conditioned deflection mechanism that subtly steers the denoising trajectory according to the user key. Such trajectory-level coupling further strengthens the semantic entanglement of identity and content, thereby further enhancing robustness against real-world threats. Moreover, we also provide a theoretical analysis proving that only the valid key can pass verification. Experiments across 12 attack methods show that PAI achieves 98.43\% verification accuracy, improving over SOTA methods by 37.25\% on average, and retains strong tampering localization performance even against advanced AIGC edits. Our code is available at https://github.com/QingyuLiu/PAI.
- Abstract(参考訳): AIGCがクリエイティブなワークフローで普及するにつれ、ユーザ生成のAIイメージの著作権を保護することが、新たな課題となる。
既存の透かし方式は,(1) 現実世界の敵の脅威に弱いままであり, しばしばスプーフィングや除去攻撃に対する防御と, (2) セマンティックレベルのタンパの局所化はサポートできない。
我々は,AIGC著作権保護のためのトレーニングフリー固有の透かしフレームワークであるPAIを紹介した。
PAIは同時に、ロバストなオーナシップ検証、アタック検出、セマンティックレベルのタンパリングローカライゼーションという3つの重要な機能を提供している。
拡散モデルの雑音初期化時にのみ透かしを埋め込む既存の固有透かし法とは違って,ユーザキーに応じて減音軌道を微妙に制御する新しい鍵条件偏向機構を設計する。
このような軌道レベルの結合は、アイデンティティとコンテンツのセマンティックな絡み合いをさらに強化し、現実世界の脅威に対する堅牢性をさらに強化する。
さらに、有効な鍵だけが検証をパスできることを証明する理論的解析も提供する。
12の攻撃方法による実験では、PAIは98.43\%の精度を達成し、平均37.25\%のSOTA法よりも改善し、高度なAIGC編集に対しても強力なローカライゼーション性能を維持している。
私たちのコードはhttps://github.com/QingyuLiu/PAI.comで公開されています。
関連論文リスト
- StableGuard: Towards Unified Copyright Protection and Tamper Localization in Latent Diffusion Models [55.05404953041403]
拡散生成プロセスにバイナリ透かしをシームレスに統合する新しいフレームワークを提案する。
画像の忠実さ、透かしの検証、ローカライゼーションの改ざんにおいて、StableGuardは一貫して最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2025-09-22T16:35:19Z) - Removal Attack and Defense on AI-generated Content Latent-based Watermarking [26.09708301315328]
デジタル透かしは、秘密分布からサンプリングされた出発点で生成プロセスを初期化することによりAIGCに埋め込むことができる。
擬似乱数誤り訂正符号と組み合わせると、これらの透かしの出力は、ホワイトノイズの下で堅牢性を維持しながら、未透かしの物体と区別できないままにすることができる。
透かしのある物体の位置から漏洩した境界情報を利用する新たな攻撃法を提案する。
この攻撃は、特定の設定下でのベースラインホワイトノイズ攻撃と比較して、透かしを取り除くのに必要な歪みを最大15倍まで減少させる。
論文 参考訳(メタデータ) (2025-09-15T09:56:24Z) - Character-Level Perturbations Disrupt LLM Watermarks [64.60090923837701]
我々は,Large Language Model (LLM)ウォーターマーキングのためのシステムモデルを定式化する。
我々は、透かし検出器への限られたアクセスに制約された2つの現実的な脅威モデルの特徴付けを行う。
我々は,最も制限的な脅威モデルの下で,キャラクタレベルの摂動が透かし除去に著しく有効であることを実証した。
現実的な制約下での透かし除去における文字レベルの摂動の優位性と遺伝的アルゴリズム(GA)の有効性を実験的に検証した。
論文 参考訳(メタデータ) (2025-09-11T02:50:07Z) - Uncovering and Mitigating Destructive Multi-Embedding Attacks in Deepfake Proactive Forensics [17.112388802067425]
積極的法医学は 信頼できない 透かしを埋め込んで 信頼できる情報源の追跡を 可能にします
既存の手法は、1つの透かしを埋め込むという理想的な仮定に依存しており、これは現実のシナリオでは非現実的であることを証明している。
本稿では,この脆弱性に対処するため,AIS(Adversarial Interference Simulation)という訓練パラダイムを提案する。
本手法は,第2の埋め込み後であっても,元の透かしを正しく抽出する能力を維持することができる。
論文 参考訳(メタデータ) (2025-08-24T07:57:32Z) - Robustness of Watermarking on Text-to-Image Diffusion Models [9.277492743469235]
本稿では,透かし埋め込みとテキスト・ツー・イメージ・ジェネレーション処理を統合することで生成する透かしの堅牢性について検討する。
生成型透かし法は, 識別器による攻撃やエッジ予測に基づく攻撃のエッジ情報に基づく操作など, 直接回避攻撃に対して堅牢であるが, 悪意のある微調整には脆弱であることがわかった。
論文 参考訳(メタデータ) (2024-08-04T13:59:09Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。