論文の概要: Mitigating Watermark Stealing Attacks in Generative Models via Multi-Key Watermarking
- arxiv url: http://arxiv.org/abs/2507.07871v1
- Date: Thu, 10 Jul 2025 15:52:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.474133
- Title: Mitigating Watermark Stealing Attacks in Generative Models via Multi-Key Watermarking
- Title(参考訳): 多鍵透かしによる生成モデルにおける透かしステアリング攻撃の軽減
- Authors: Toluwani Aremu, Noor Hussein, Munachiso Nwadike, Samuele Poppi, Jie Zhang, Karthik Nandakumar, Neil Gong, Nils Lukas,
- Abstract要約: GenAIプロバイダに対する脅威は、Emphwatermarkの盗難攻撃だ。
我々の研究は、盗難攻撃を軽減し、根底にある透かしをブラックボックスとして扱うことに焦点を当てている。
- 参考スコア(独自算出の注目度): 9.928222896746249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Watermarking offers a promising solution for GenAI providers to establish the provenance of their generated content. A watermark is a hidden signal embedded in the generated content, whose presence can later be verified using a secret watermarking key. A threat to GenAI providers are \emph{watermark stealing} attacks, where users forge a watermark into content that was \emph{not} generated by the provider's models without access to the secret key, e.g., to falsely accuse the provider. Stealing attacks collect \emph{harmless} watermarked samples from the provider's model and aim to maximize the expected success rate of generating \emph{harmful} watermarked samples. Our work focuses on mitigating stealing attacks while treating the underlying watermark as a black-box. Our contributions are: (i) Proposing a multi-key extension to mitigate stealing attacks that can be applied post-hoc to any watermarking method across any modality. (ii) We provide theoretical guarantees and demonstrate empirically that our method makes forging substantially less effective across multiple datasets, and (iii) we formally define the threat of watermark forging as the task of generating harmful, watermarked content and model this threat via security games.
- Abstract(参考訳): ウォーターマーキングは、生成したコンテンツの証明を確立するための、GenAIプロバイダに有望なソリューションを提供する。
透かしは生成されたコンテンツに埋め込まれた隠された信号であり、後に秘密の透かしキーを使ってその存在を確認できる。
GenAIプロバイダに対する脅威は、emph{watermark stealing}攻撃である。ユーザは、シークレットキーにアクセスすることなく、プロバイダのモデルによって生成された‘emph{not}’コンテンツに透かしを偽造してプロバイダを非難する。
ステアリング攻撃は、プロバイダのモデルから \emph{harmful} ウォーターマークされたサンプルを収集し、 \emph{harmful} ウォーターマークされたサンプルの生成が期待される成功率を最大化することを目的としている。
我々の研究は、盗難攻撃を軽減し、根底にある透かしをブラックボックスとして扱うことに焦点を当てている。
私たちの貢献は次のとおりです。
一 盗難攻撃を緩和するためのマルチキー拡張を提供することで、あらゆるモダリティをまたいだ透かし方法に適用することができる。
(II) 理論的な保証を提供し, 提案手法が複数のデータセットにまたがって鍛造を効果的に行うことを実証し, 実証する。
三 ウォーターマーク鍛造の脅威を、有害で透かしのあるコンテンツを生成し、セキュリティゲームを介してこの脅威をモデル化するタスクとして、正式に定義する。
関連論文リスト
- WMCopier: Forging Invisible Image Watermarks on Arbitrary Images [21.17890218813236]
目的の透かしアルゴリズムの事前知識やアクセスを必要とせず,有効な透かし偽造攻撃であるWMCopierを提案する。
提案手法はまず,無条件拡散モデルを用いて対象の透かし分布をモデル化し,次いで,対象の透かしを非透かし画像にシームレスに埋め込む。
実験の結果、WMCopierはオープンソースとクローズドソースの両方の透かしシステムを効果的に騙していることがわかった。
論文 参考訳(メタデータ) (2025-03-28T11:11:19Z) - SEAL: Semantic Aware Image Watermarking [26.606008778795193]
本稿では,生成した画像のセマンティック情報を透かしに直接埋め込む新しい透かし手法を提案する。
キーパターンは、局所性に敏感なハッシュを用いて画像のセマンティック埋め込みから推測することができる。
以上の結果から,画像生成モデルによるリスクを軽減できる可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-15T15:29:05Z) - RoboSignature: Robust Signature and Watermarking on Network Attacks [0.5461938536945723]
本稿では,モデルが意図した透かしを埋め込む能力を阻害する新たな逆調整攻撃を提案する。
本研究は, 発生システムにおける潜在的な脆弱性を予知し, 防御することの重要性を強調した。
論文 参考訳(メタデータ) (2024-12-22T04:36:27Z) - Robust and Minimally Invasive Watermarking for EaaS [50.08021440235581]
組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
論文 参考訳(メタデータ) (2024-10-23T04:34:49Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Large Language Model Watermark Stealing With Mixed Integer Programming [51.336009662771396]
大きな言語モデル(LLM)の透かしは、著作権に対処し、AI生成したテキストを監視し、その誤用を防ぐことを約束している。
近年の研究では、多数のキーを用いた透かし手法は、攻撃の除去に影響を受けやすいことが示されている。
我々は,最先端のLLM透かしスキームに対する新たなグリーンリスト盗難攻撃を提案する。
論文 参考訳(メタデータ) (2024-05-30T04:11:17Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。