論文の概要: Leveraging Optimization for Adaptive Attacks on Image Watermarks
- arxiv url: http://arxiv.org/abs/2309.16952v1
- Date: Fri, 29 Sep 2023 03:36:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 15:36:50.773539
- Title: Leveraging Optimization for Adaptive Attacks on Image Watermarks
- Title(参考訳): 画像透かしの適応的攻撃に対するレバレッジ最適化
- Authors: Nils Lukas, Abdulrahman Diaa, Lucas Fenaux, Florian Kerschbaum
- Abstract要約: 透かしの中核となるセキュリティ特性は堅牢性である。
堅牢性を評価するには、特定の透かしアルゴリズムに対する適応的な攻撃を設計する必要がある。
攻撃者は画像品質の劣化を無視して5つの透かし法を破ることができることを示す。
- 参考スコア(独自算出の注目度): 31.70167647613335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Untrustworthy users can misuse image generators to synthesize high-quality
deepfakes and engage in online spam or disinformation campaigns. Watermarking
deters misuse by marking generated content with a hidden message, enabling its
detection using a secret watermarking key. A core security property of
watermarking is robustness, which states that an attacker can only evade
detection by substantially degrading image quality. Assessing robustness
requires designing an adaptive attack for the specific watermarking algorithm.
A challenge when evaluating watermarking algorithms and their (adaptive)
attacks is to determine whether an adaptive attack is optimal, i.e., it is the
best possible attack. We solve this problem by defining an objective function
and then approach adaptive attacks as an optimization problem. The core idea of
our adaptive attacks is to replicate secret watermarking keys locally by
creating surrogate keys that are differentiable and can be used to optimize the
attack's parameters. We demonstrate for Stable Diffusion models that such an
attacker can break all five surveyed watermarking methods at negligible
degradation in image quality. These findings emphasize the need for more
rigorous robustness testing against adaptive, learnable attackers.
- Abstract(参考訳): 信頼できないユーザーは画像生成装置を誤用して高品質のディープフェイクを合成したり、オンラインスパムや偽情報キャンペーンに従事したりすることができる。
ウォーターマーキングは、生成されたコンテンツを隠されたメッセージでマークすることで誤用を検知する。
ウォーターマーキングのコアセキュリティ特性は堅牢性であり、攻撃者は画像品質を著しく劣化させることで検出を回避できる。
堅牢性を評価するには、特定の透かしアルゴリズムに対する適応攻撃を設計する必要がある。
ウォーターマーキングアルゴリズムとその(適応的な)攻撃を評価する際の課題は、適応攻撃が最適であるかどうかを判断することである。
目的関数を定義し,最適化問題として適応攻撃にアプローチすることで,この問題を解決した。
アダプティブアタックの核となる考え方は、差別化可能で、攻撃パラメータの最適化に使用できるサロゲートキーを作成することで、秘密のウォーターマークキーをローカルに複製することです。
本研究では,画像品質の劣化を無視して5つの透かし法をすべて破壊できる安定拡散モデルを示す。
これらの発見は、適応的で学習可能な攻撃者に対するより厳密な堅牢性テストの必要性を強調している。
関連論文リスト
- Optimizing Adaptive Attacks against Content Watermarks for Language Models [5.798432964668272]
大規模な言語モデル(LLM)は、オンラインスパムや誤報を拡散するために省略することができる。
コンテンツ透かしは、モデル生成出力にメッセージを隠すことで誤用を検知し、秘密の透かしキーを使用して検出する。
論文 参考訳(メタデータ) (2024-10-03T12:37:39Z) - Robustness of Watermarking on Text-to-Image Diffusion Models [9.277492743469235]
本稿では,透かし埋め込みとテキスト・ツー・イメージ・ジェネレーション処理を統合することで生成する透かしの堅牢性について検討する。
生成型透かし法は, 識別器による攻撃やエッジ予測に基づく攻撃のエッジ情報に基づく操作など, 直接回避攻撃に対して堅牢であるが, 悪意のある微調整には脆弱であることがわかった。
論文 参考訳(メタデータ) (2024-08-04T13:59:09Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - WAVES: Benchmarking the Robustness of Image Watermarks [67.955140223443]
WAVES(Watermark Analysis Via Enhanced Stress-testing)は、画像透かしの堅牢性を評価するためのベンチマークである。
我々は,検出タスクと識別タスクを統合し,多様なストレステストからなる標準化された評価プロトコルを確立する。
我々はWAVESを,ロバストな透かしの将来の開発のためのツールキットとして想定する。
論文 参考訳(メタデータ) (2024-01-16T18:58:36Z) - Watermarks in the Sand: Impossibility of Strong Watermarking for Generative Models [19.29349934856703]
強い透かし方式は、計算的に拘束された攻撃者が、大幅な品質劣化を引き起こすことなく、透かしを消去できない性質を満たす。
我々は、明確に定義された自然な仮定の下で、強い透かしが達成できないことを証明した。
論文 参考訳(メタデータ) (2023-11-07T22:52:54Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。