論文の概要: Removal Attack and Defense on AI-generated Content Latent-based Watermarking
- arxiv url: http://arxiv.org/abs/2509.11745v1
- Date: Mon, 15 Sep 2025 09:56:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.225507
- Title: Removal Attack and Defense on AI-generated Content Latent-based Watermarking
- Title(参考訳): AIによるコンテンツ遅延型透かしの除去と防御
- Authors: De Zhang Lee, Han Fang, Hanyi Wang, Ee-Chien Chang,
- Abstract要約: デジタル透かしは、秘密分布からサンプリングされた出発点で生成プロセスを初期化することによりAIGCに埋め込むことができる。
擬似乱数誤り訂正符号と組み合わせると、これらの透かしの出力は、ホワイトノイズの下で堅牢性を維持しながら、未透かしの物体と区別できないままにすることができる。
透かしのある物体の位置から漏洩した境界情報を利用する新たな攻撃法を提案する。
この攻撃は、特定の設定下でのベースラインホワイトノイズ攻撃と比較して、透かしを取り除くのに必要な歪みを最大15倍まで減少させる。
- 参考スコア(独自算出の注目度): 26.09708301315328
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Digital watermarks can be embedded into AI-generated content (AIGC) by initializing the generation process with starting points sampled from a secret distribution. When combined with pseudorandom error-correcting codes, such watermarked outputs can remain indistinguishable from unwatermarked objects, while maintaining robustness under whitenoise. In this paper, we go beyond indistinguishability and investigate security under removal attacks. We demonstrate that indistinguishability alone does not necessarily guarantee resistance to adversarial removal. Specifically, we propose a novel attack that exploits boundary information leaked by the locations of watermarked objects. This attack significantly reduces the distortion required to remove watermarks -- by up to a factor of $15 \times$ compared to a baseline whitenoise attack under certain settings. To mitigate such attacks, we introduce a defense mechanism that applies a secret transformation to hide the boundary, and prove that the secret transformation effectively rendering any attacker's perturbations equivalent to those of a naive whitenoise adversary. Our empirical evaluations, conducted on multiple versions of Stable Diffusion, validate the effectiveness of both the attack and the proposed defense, highlighting the importance of addressing boundary leakage in latent-based watermarking schemes.
- Abstract(参考訳): デジタル透かしは、秘密分布からサンプリングされた出発点で生成プロセスを初期化することにより、AIGCに埋め込むことができる。
擬似乱数誤り訂正符号と組み合わせると、これらの透かしの出力は、ホワイトノイズの下で堅牢性を維持しながら、未透かしの物体と区別できないままにすることができる。
本稿では,非識別性を超えて,除去攻撃時のセキュリティを調査する。
非識別性だけでは、敵の除去に対する抵抗が必ずしも保証されないことを実証する。
具体的には,透かしのある物体の位置から漏洩した境界情報を利用する新たな攻撃法を提案する。
この攻撃は、ウォーターマークを削除するのに必要な歪みを、特定の設定下でのベースラインのホワイトノイズアタックと比較して、最大15 \times$で大幅に削減する。
このような攻撃を緩和するために、境界を隠蔽するために秘密変換を適用する防衛機構を導入し、秘密変換が攻撃者の摂動を敵のナイーブ・ホワイトノワーズに匹敵するものに効果的に影響を与えることを証明した。
複数バージョンの安定拡散実験を行い,攻撃の有効性と防御効果を検証し,潜伏型透かし方式における境界漏洩対策の重要性を強調した。
関連論文リスト
- Character-Level Perturbations Disrupt LLM Watermarks [64.60090923837701]
我々は,Large Language Model (LLM)ウォーターマーキングのためのシステムモデルを定式化する。
我々は、透かし検出器への限られたアクセスに制約された2つの現実的な脅威モデルの特徴付けを行う。
我々は,最も制限的な脅威モデルの下で,キャラクタレベルの摂動が透かし除去に著しく有効であることを実証した。
現実的な制約下での透かし除去における文字レベルの摂動の優位性と遺伝的アルゴリズム(GA)の有効性を実験的に検証した。
論文 参考訳(メタデータ) (2025-09-11T02:50:07Z) - Mitigating Watermark Forgery in Generative Models via Multi-Key Watermarking [9.928222896746249]
GenAIプロバイダに対するセキュリティ上の脅威は、悪意のあるユーザがプロバイダの透かしを生成されたコンテンツに挿入するEmphforgery攻撃である。
偽造に抵抗する潜在的な防御の1つは、生成されたコンテンツを透かしに複数のキーを使用することである。
調査対象の全ての偽造攻撃に抵抗する改良されたマルチキー透かし法を提案する。
論文 参考訳(メタデータ) (2025-07-10T15:52:32Z) - When There Is No Decoder: Removing Watermarks from Stable Diffusion Models in a No-box Setting [37.85082375268253]
本研究では,透かしの埋め込みをテキスト・ツー・イメージ生成と組み合わせたモデル固有透かしの堅牢性について検討する。
我々は、エッジ予測ベースの3つの攻撃戦略、ボックスのぼかし、ノーボックス設定で微調整ベースの攻撃を導入する。
我々の最高の攻撃は、透かし検出精度を約47.92%に低下させる。
論文 参考訳(メタデータ) (2025-07-04T15:22:20Z) - Robustness of Watermarking on Text-to-Image Diffusion Models [9.277492743469235]
本稿では,透かし埋め込みとテキスト・ツー・イメージ・ジェネレーション処理を統合することで生成する透かしの堅牢性について検討する。
生成型透かし法は, 識別器による攻撃やエッジ予測に基づく攻撃のエッジ情報に基づく操作など, 直接回避攻撃に対して堅牢であるが, 悪意のある微調整には脆弱であることがわかった。
論文 参考訳(メタデータ) (2024-08-04T13:59:09Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。