論文の概要: Leveraging Optimization for Adaptive Attacks on Image Watermarks
- arxiv url: http://arxiv.org/abs/2309.16952v2
- Date: Sat, 20 Jan 2024 19:43:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 20:38:47.991941
- Title: Leveraging Optimization for Adaptive Attacks on Image Watermarks
- Title(参考訳): 画像透かしの適応的攻撃に対するレバレッジ最適化
- Authors: Nils Lukas, Abdulrahman Diaa, Lucas Fenaux, Florian Kerschbaum
- Abstract要約: ウォーターマーキングは、生成されたコンテンツを隠されたメッセージでマークすることで誤用を検知し、秘密のウォーターマーキングキーを使用して検出する。
堅牢性を評価するには、特定の透かしアルゴリズムに対する適応的な攻撃を設計する必要がある。
画像品質を劣化させることなく,5つの透かし法を全て破壊できることを示す。
- 参考スコア(独自算出の注目度): 31.70167647613335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Untrustworthy users can misuse image generators to synthesize high-quality
deepfakes and engage in unethical activities. Watermarking deters misuse by
marking generated content with a hidden message, enabling its detection using a
secret watermarking key. A core security property of watermarking is
robustness, which states that an attacker can only evade detection by
substantially degrading image quality. Assessing robustness requires designing
an adaptive attack for the specific watermarking algorithm. When evaluating
watermarking algorithms and their (adaptive) attacks, it is challenging to
determine whether an adaptive attack is optimal, i.e., the best possible
attack. We solve this problem by defining an objective function and then
approach adaptive attacks as an optimization problem. The core idea of our
adaptive attacks is to replicate secret watermarking keys locally by creating
surrogate keys that are differentiable and can be used to optimize the attack's
parameters. We demonstrate for Stable Diffusion models that such an attacker
can break all five surveyed watermarking methods at no visible degradation in
image quality. Optimizing our attacks is efficient and requires less than 1 GPU
hour to reduce the detection accuracy to 6.3% or less. Our findings emphasize
the need for more rigorous robustness testing against adaptive, learnable
attackers.
- Abstract(参考訳): 不信なユーザーは画像生成装置を誤用して高品質なディープフェイクを合成し、非倫理的な活動を行うことができる。
ウォーターマーキングは、生成されたコンテンツを隠されたメッセージでマークすることで誤用を検知する。
ウォーターマーキングのコアセキュリティ特性は堅牢性であり、攻撃者は画像品質を著しく劣化させることで検出を回避できる。
堅牢性を評価するには、特定の透かしアルゴリズムに対する適応攻撃を設計する必要がある。
透かしアルゴリズムとその(適応的な)攻撃を評価する場合、適応攻撃が最適な、すなわち最善の攻撃であるかどうかを判断することは困難である。
目的関数を定義し,最適化問題として適応攻撃にアプローチすることで,この問題を解決した。
アダプティブアタックの核となる考え方は、差別化可能で、攻撃パラメータの最適化に使用できるサロゲートキーを作成することで、秘密のウォーターマークキーをローカルに複製することです。
安定拡散モデルでは, 画像品質の劣化を生じさせないまま, 調査した5つの透かし法を全て破壊できることを示す。
攻撃の最適化は効率的で、検出精度を6.3%以下にするために1gpu時間未満で済む。
本研究は,適応的で学習可能な攻撃者に対するより厳密な堅牢性テストの必要性を強調する。
関連論文リスト
- Adaptive Text Watermark for Large Language Models [9.569222603139332]
プロンプトやモデルの知識を必要とせずに、強力なセキュリティ、堅牢性、および透かしを検出する能力を維持しつつ、高品質な透かしテキストを生成することは困難である。
本稿では,この問題に対処するための適応型透かし手法を提案する。
論文 参考訳(メタデータ) (2024-01-25T03:57:12Z) - Benchmarking the Robustness of Image Watermarks [69.97769967867634]
本稿では,画像透かし技術の弱点について検討する。
We present WAVES, a novel benchmark for evaluate watermark robustness。
我々はWAVESを,ロバストな透かしシステムの開発のためのツールキットとして想定する。
論文 参考訳(メタデータ) (2024-01-16T18:58:36Z) - Watermarks in the Sand: Impossibility of Strong Watermarking for
Generative Models [20.443697158372405]
強い透かし方式は、計算的に拘束された攻撃者が、大幅な品質劣化を引き起こすことなく、透かしを消去できない性質を満たす。
我々は、明確に定義された自然な仮定の下で、強い透かしが達成できないことを証明した。
論文 参考訳(メタデータ) (2023-11-07T22:52:54Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [88.50683534978407]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要とする。
本稿では、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う、偽造不可能な検証可能な透かしアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z) - Adaptive Blind Watermarking Using Psychovisual Image Features [8.75217589103206]
本稿では,カバー画像の異なる部分に埋め込まれた透かしの強度を適応的に決定する手法を提案する。
また, 提案手法は, 異なる種類の共通透かし攻撃において, 組込みペイロードを効果的に再構築できることを示す。
論文 参考訳(メタデータ) (2022-12-25T06:33:36Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。