論文の概要: Transferable Black-Box One-Shot Forging of Watermarks via Image Preference Models
- arxiv url: http://arxiv.org/abs/2510.20468v1
- Date: Thu, 23 Oct 2025 12:06:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.840955
- Title: Transferable Black-Box One-Shot Forging of Watermarks via Image Preference Models
- Title(参考訳): 画像選好モデルによる透かしの転送可能なブラックボックスワンショット鍛造
- Authors: Tomáš Souček, Sylvestre-Alvise Rebuffi, Pierre Fernandez, Nikola Jovanović, Hady Elsahar, Valeriu Lacatusu, Tuan Tran, Alexandre Mourachko,
- Abstract要約: 広範に使用されているポストホック画像透かしの文脈における透かし鍛造について検討した。
画像がウォーターマークされているかどうかを評価するための選好モデルを導入する。
本稿では,バックプロパゲーションによる入力画像の最適化により,透かしを除去・鍛造するモデルの能力を実証する。
- 参考スコア(独自算出の注目度): 42.902365202924535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have seen a surge in interest in digital content watermarking techniques, driven by the proliferation of generative models and increased legal pressure. With an ever-growing percentage of AI-generated content available online, watermarking plays an increasingly important role in ensuring content authenticity and attribution at scale. There have been many works assessing the robustness of watermarking to removal attacks, yet, watermark forging, the scenario when a watermark is stolen from genuine content and applied to malicious content, remains underexplored. In this work, we investigate watermark forging in the context of widely used post-hoc image watermarking. Our contributions are as follows. First, we introduce a preference model to assess whether an image is watermarked. The model is trained using a ranking loss on purely procedurally generated images without any need for real watermarks. Second, we demonstrate the model's capability to remove and forge watermarks by optimizing the input image through backpropagation. This technique requires only a single watermarked image and works without knowledge of the watermarking model, making our attack much simpler and more practical than attacks introduced in related work. Third, we evaluate our proposed method on a variety of post-hoc image watermarking models, demonstrating that our approach can effectively forge watermarks, questioning the security of current watermarking approaches. Our code and further resources are publicly available.
- Abstract(参考訳): 近年、生成モデルの普及と法的圧力の増大により、デジタルコンテンツ透かし技術への関心が高まっている。
オンライン上でAIが生成するコンテンツの割合がますます増加する中、ウォーターマーキングは、コンテンツの信頼性と大規模な貢献を保証する上で、ますます重要な役割を担っている。
防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水・防水
本研究では,ポストホック画像の透かしにおける透かし鍛造について検討する。
私たちの貢献は以下の通りです。
まず,画像がウォーターマークされているかどうかを評価するための選好モデルを提案する。
このモデルは、実際の透かしを必要とせずに、純粋に手続き的に生成された画像のランキング損失を用いて訓練される。
第2に、バックプロパゲーションによる入力画像の最適化により、透かしを除去・鍛造するモデルの能力を実証する。
この手法は1つの透かし画像のみを必要とし、透かしモデルを知ることなく動作し、我々の攻撃を関連する作業で導入された攻撃よりもずっとシンプルで実用的なものにする。
第3に,提案手法を様々なポストホック画像透かしモデルで評価し,現在の透かし手法の安全性に疑問を呈し,効果的に透かしを作成できることを実証した。
私たちのコードとさらなるリソースは公開されています。
関連論文リスト
- Diffusion-Based Image Editing for Breaking Robust Watermarks [4.273350357872755]
強力な拡散ベースの画像生成と編集技術は、堅牢なウォーターマーキングスキームに新たな脅威をもたらす。
拡散駆動型画像再生プロセスでは,画像内容の保存中に埋め込み透かしを消去できることを示す。
生成中の透かし信号に特異的な誘導拡散攻撃を導入し,透かし検出性を著しく低下させた。
論文 参考訳(メタデータ) (2025-10-07T14:34:42Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Steganalysis on Digital Watermarking: Is Your Defense Truly Impervious? [21.06493827123594]
ステガナリシス攻撃は 最小限の知覚歪みで 透かしを抽出し除去できる
平均的な透かし画像の集合は、その下にある透かしパターンを明らかにすることができる。
本稿では,コンテンツ適応型透かし戦略とステガナリシスに対するセキュリティ評価を実施するためのセキュリティガイドラインを提案する。
論文 参考訳(メタデータ) (2024-06-13T12:01:28Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。