論文の概要: Evaluating the Robustness of Trigger Set-Based Watermarks Embedded in
Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2106.10147v1
- Date: Fri, 18 Jun 2021 14:23:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 13:58:06.941757
- Title: Evaluating the Robustness of Trigger Set-Based Watermarks Embedded in
Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークに埋め込まれたトリガーセット型透かしのロバスト性評価
- Authors: Suyoung Lee, Wonho Song, Suman Jana, Meeyoung Cha, Sooel Son
- Abstract要約: 最先端のトリガーセットベースの透かしアルゴリズムは、所有権を証明するという設計目標を達成することができない。
本稿では,対象モデルの基盤となる透かしアルゴリズムに対する敵の知識を活用する新しい適応攻撃を提案する。
- 参考スコア(独自算出の注目度): 22.614495877481144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trigger set-based watermarking schemes have gained emerging attention as they
provide a means to prove ownership for deep neural network model owners. In
this paper, we argue that state-of-the-art trigger set-based watermarking
algorithms do not achieve their designed goal of proving ownership. We posit
that this impaired capability stems from two common experimental flaws that the
existing research practice has committed when evaluating the robustness of
watermarking algorithms: (1) incomplete adversarial evaluation and (2)
overlooked adaptive attacks.
We conduct a comprehensive adversarial evaluation of 10 representative
watermarking schemes against six of the existing attacks and demonstrate that
each of these watermarking schemes lacks robustness against at least two
attacks. We also propose novel adaptive attacks that harness the adversary's
knowledge of the underlying watermarking algorithm of a target model. We
demonstrate that the proposed attacks effectively break all of the 10
watermarking schemes, consequently allowing adversaries to obscure the
ownership of any watermarked model. We encourage follow-up studies to consider
our guidelines when evaluating the robustness of their watermarking schemes via
conducting comprehensive adversarial evaluation that include our adaptive
attacks to demonstrate a meaningful upper bound of watermark robustness.
- Abstract(参考訳): Triggerセットベースのウォーターマーキングスキームは、ディープニューラルネットワークモデルのオーナの所有権を証明する手段として、注目を集めている。
本稿では,現在最先端のトリガセットベースの透かしアルゴリズムが,その設計目標であるオーナシップを達成できないことを論じる。
この障害は,ウォーターマーキングアルゴリズムのロバスト性評価において,(1)不完全逆評価と(2)見過ごされた適応攻撃の2つの実験的欠陥が原因であると考えられる。
我々は,既存の6つの攻撃に対する10の代表的なウォーターマーキングスキームの包括的敵意評価を行い,これらのウォーターマーキングスキームが少なくとも2つの攻撃に対して堅牢性に欠けることを示す。
また,ターゲットモデルの基盤となる透かしアルゴリズムに対する敵の知識を活用した適応攻撃を提案する。
提案した攻撃は10の透かしスキームの全てを効果的に破壊し、敵が透かし付きモデルの所有権を曖昧にすることができることを示した。
我々は,我々の適応攻撃を含む包括的対角的評価を行うことで,透かし方式の堅牢性を評価する上で,我々のガイドラインを検討することを奨励する。
関連論文リスト
- Benchmarking the Robustness of Image Watermarks [69.97769967867634]
本稿では,画像透かし技術の弱点について検討する。
We present WAVES, a novel benchmark for evaluate watermark robustness。
我々はWAVESを,ロバストな透かしシステムの開発のためのツールキットとして想定する。
論文 参考訳(メタデータ) (2024-01-16T18:58:36Z) - Elevating Defenses: Bridging Adversarial Training and Watermarking for
Model Resilience [2.8084422332394428]
この研究は、敵の訓練と透かし技術を統合する新しい枠組みを導入し、回避攻撃を防ぎます。
我々は、MNISTとFashion-MNISTデータセットを用いて、様々なモデル盗難攻撃における提案手法の評価を行う。
論文 参考訳(メタデータ) (2023-12-21T19:21:36Z) - Watermarks in the Sand: Impossibility of Strong Watermarking for
Generative Models [20.443697158372405]
強い透かし方式は、計算的に拘束された攻撃者が、大幅な品質劣化を引き起こすことなく、透かしを消去できない性質を満たす。
我々は、明確に定義された自然な仮定の下で、強い透かしが達成できないことを証明した。
論文 参考訳(メタデータ) (2023-11-07T22:52:54Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - SoK: How Robust is Image Classification Deep Neural Network
Watermarking? (Extended Version) [16.708069984516964]
我々は,最近提案された,ロバスト性を主張する透かし方式が,大規模な除去攻撃に対して堅牢であるか否かを評価する。
調査されたウォーターマーキングスキームのいずれも、実際のデータセットでは堅牢ではない。
我々は,より現実的な敵モデルを用いて,より広範囲にわたる除去攻撃に対して,透かし方式を評価する必要があることを示す。
論文 参考訳(メタデータ) (2021-08-11T00:23:33Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。