論文の概要: Investigating Deep Watermark Security: An Adversarial Transferability
Perspective
- arxiv url: http://arxiv.org/abs/2402.16397v1
- Date: Mon, 26 Feb 2024 08:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 14:05:35.736656
- Title: Investigating Deep Watermark Security: An Adversarial Transferability
Perspective
- Title(参考訳): 深層透かしのセキュリティ調査--逆境移動可能性の観点から
- Authors: Biqing Qi, Junqi Gao, Yiang Luo, Jianxing Liu, Ligang Wu and Bowen
Zhou
- Abstract要約: 本研究では, 消毒・改ざん防止対策として, 深層透かしの脆弱性を評価するために, 2つの効果的なトランスファー可能な攻撃手法を提案する。
簡単なサンプル選択(ESS)機構と簡単なサンプルマッチング攻撃(ESMA)手法を提案する。
ESMA法とBEM-ESMA法の両方において,標的移動攻撃の成功率を著しく向上させる実験を行った。
- 参考スコア(独自算出の注目度): 18.363276470822427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of generative neural networks has triggered an increased demand for
intellectual property (IP) protection in generated content. Deep watermarking
techniques, recognized for their flexibility in IP protection, have garnered
significant attention. However, the surge in adversarial transferable attacks
poses unprecedented challenges to the security of deep watermarking
techniques-an area currently lacking systematic investigation. This study fills
this gap by introducing two effective transferable attackers to assess the
vulnerability of deep watermarks against erasure and tampering risks.
Specifically, we initially define the concept of local sample density,
utilizing it to deduce theorems on the consistency of model outputs. Upon
discovering that perturbing samples towards high sample density regions (HSDR)
of the target class enhances targeted adversarial transferability, we propose
the Easy Sample Selection (ESS) mechanism and the Easy Sample Matching Attack
(ESMA) method. Additionally, we propose the Bottleneck Enhanced Mixup (BEM)
that integrates information bottleneck theory to reduce the generator's
dependence on irrelevant noise. Experiments show a significant enhancement in
the success rate of targeted transfer attacks for both ESMA and BEM-ESMA
methods. We further conduct a comprehensive evaluation using ESMA and BEM-ESMA
as measurements, considering model architecture and watermark encoding length,
and achieve some impressive findings.
- Abstract(参考訳): 生成ニューラルネットワークの台頭により、生成したコンテンツに対する知的財産保護(ip)の需要が高まっている。
ip保護の柔軟性が認められている深層透かし技術が注目されている。
しかし、敵の移動可能な攻撃の急増は、ディープウォーターマーキング技術の安全性に前例のない課題をもたらしている。
本研究はこのギャップを埋めるために、2つの効果的な移動可能な攻撃者を導入し、根絶や改ざんリスクに対する深い透かしの脆弱性を評価している。
具体的には,まず局所標本密度の概念を定義し,モデル出力の一貫性に関する定理を導出する。
対象クラスの高サンプル密度領域(HSDR)に対する摂動サンプルの摂動がターゲットの対向移動性を高めることを発見すると、簡単なサンプル選択(ESS)機構と簡単なサンプルマッチング攻撃(ESMA)手法を提案する。
さらに,情報ボトルネック理論を統合し,無関係ノイズに対する発電機の依存性を低減させるボトルネック強化ミックスアップ(bem)を提案する。
ESMA法とBEM-ESMA法の両方において,標的移動攻撃の成功率を著しく向上させる実験を行った。
さらに,esmaとbem-esmaを計測として,モデルアーキテクチャと透かし符号化長を考慮した総合評価を行い,印象的な結果を得た。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - DIP-Watermark: A Double Identity Protection Method Based on Robust Adversarial Watermark [13.007649270429493]
顔認識(FR)システムはプライバシーのリスクを引き起こす。
1つの対策は敵攻撃であり、不正な悪意のあるFRを欺くことである。
トレース可能な対角線透かしに基づく最初の二重識別保護方式を提案する。
論文 参考訳(メタデータ) (2024-04-23T02:50:38Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Tailoring Adversarial Attacks on Deep Neural Networks for Targeted Class Manipulation Using DeepFool Algorithm [6.515472477685614]
敵対的攻撃に対するディープニューラルネットワーク(DNN)の感受性は、多くのアプリケーションにまたがる信頼性を損なう。
本稿では,DeepFoolの進化であるET DeepFoolアルゴリズムを紹介する。
我々の実証的研究は、画像の整合性を維持する上で、この洗練されたアプローチが優れていることを示すものである。
論文 参考訳(メタデータ) (2023-10-18T18:50:39Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Generative Adversarial Network-Driven Detection of Adversarial Tasks in
Mobile Crowdsensing [5.675436513661266]
クラウドセンシングシステムは、不特定かつユビキタスなプロパティの上に構築されるため、さまざまな攻撃に対して脆弱である。
以前の研究では、GANベースの攻撃は実験的に設計された攻撃サンプルよりも重大な破壊力を示すことが示唆されている。
本稿では,GANモデルを統合することにより,知的に設計された不正なセンシングサービス要求を検出することを目的とする。
論文 参考訳(メタデータ) (2022-02-16T00:23:25Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing [61.82466976737915]
深層学習は、顔の反偽造の最も効果的な方法の1つとして証明されている。
2つの洞察に基づいて,複数フレームからの提示攻撃を検出する新しい手法を提案する。
提案手法は,5つのベンチマークデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2020-03-18T06:11:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。