論文の概要: DP-TRAE: A Dual-Phase Merging Transferable Reversible Adversarial Example for Image Privacy Protection
- arxiv url: http://arxiv.org/abs/2505.06860v1
- Date: Sun, 11 May 2025 06:11:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.076757
- Title: DP-TRAE: A Dual-Phase Merging Transferable Reversible Adversarial Example for Image Privacy Protection
- Title(参考訳): DP-TRAE:イメージプライバシ保護のためのトランスファーブル・リバーシブル・アドバイザリ・サンプル
- Authors: Xia Du, Jiajie Zhu, Jizhe Zhou, Chi-man Pun, Zheng Lin, Cong Wu, Zhe Chen, Jun Luo,
- Abstract要約: Reversible Adversarial Examples (RAE)は、敵攻撃と可逆的なデータ隠蔽技術を組み合わせて、機密データを保護する。
既存のRAE技術は主にホワイトボックス攻撃に焦点を当てており、ブラックボックスのシナリオにおけるそれらの効果の包括的な評価を欠いている。
ホワイトボックスモデルにおいて,高度に伝達可能な初期対向摂動を発生させるDual-Phase Merging Transferable Reversible Attack法を提案する。
- 参考スコア(独自算出の注目度): 40.84549185437402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of digital security, Reversible Adversarial Examples (RAE) combine adversarial attacks with reversible data hiding techniques to effectively protect sensitive data and prevent unauthorized analysis by malicious Deep Neural Networks (DNNs). However, existing RAE techniques primarily focus on white-box attacks, lacking a comprehensive evaluation of their effectiveness in black-box scenarios. This limitation impedes their broader deployment in complex, dynamic environments. Further more, traditional black-box attacks are often characterized by poor transferability and high query costs, significantly limiting their practical applicability. To address these challenges, we propose the Dual-Phase Merging Transferable Reversible Attack method, which generates highly transferable initial adversarial perturbations in a white-box model and employs a memory augmented black-box strategy to effectively mislead target mod els. Experimental results demonstrate the superiority of our approach, achieving a 99.0% attack success rate and 100% recovery rate in black-box scenarios, highlighting its robustness in privacy protection. Moreover, we successfully implemented a black-box attack on a commercial model, further substantiating the potential of this approach for practical use.
- Abstract(参考訳): ディジタルセキュリティの分野では、Reversible Adversarial Examples(RAE)は、悪意のあるDeep Neural Networks(DNN)による不正な解析を効果的に保護するために、敵攻撃と可逆データ隠蔽技術を組み合わせる。
しかしながら、既存のRAE技術は主にホワイトボックス攻撃に焦点を当てており、ブラックボックスのシナリオにおけるそれらの効果の包括的評価を欠いている。
この制限は、複雑な動的環境へのより広範なデプロイメントを妨げる。
さらに、伝統的なブラックボックス攻撃は、転送可能性の低下とクエリコストの高さが特徴であり、実用性を大幅に制限している。
これらの課題に対処するために、ホワイトボックスモデルにおいて高い転送可能な初期対向摂動を生成し、メモリ拡張ブラックボックス戦略を用いて、ターゲットモードエルを効果的に誤解させるDual-Phase Merging Transferable Reversible Attack法を提案する。
実験の結果,ブラックボックスシナリオにおける攻撃成功率99.0%,回復率100%を達成し,プライバシー保護の堅牢性を強調した。
さらに,商業モデルに対するブラックボックス攻撃の実施に成功した。
関連論文リスト
- On Transfer-based Universal Attacks in Pure Black-box Setting [94.92884394009288]
攻撃性能における対象モデルデータの事前知識とクラス数の役割について検討する。
また、分析に基づいていくつかの興味深い洞察を与え、先行が伝達可能性スコアの過大評価を引き起こすことを示した。
論文 参考訳(メタデータ) (2025-04-11T10:41:20Z) - Privacy-preserving Universal Adversarial Defense for Black-box Models [20.968518031455503]
本稿では,対象モデルのパラメータやアーキテクチャへのアクセスを必要としない,汎用的なブラックボックス防御手法であるDUCDを紹介する。
このアプローチでは、データをクエリすることでターゲットモデルをクエリし、データのプライバシを保持しながら、ホワイトボックスサロゲートを生成します。
複数の画像分類データセットの実験では、DUCDは既存のブラックボックスディフェンスよりも優れており、ホワイトボックスディフェンスの精度と一致している。
論文 参考訳(メタデータ) (2024-08-20T08:40:39Z) - Improving Adversarial Transferability with Neighbourhood Gradient Information [20.55829486744819]
ディープニューラルネットワーク(DNN)は、敵の例に影響を受けやすいため、パフォーマンスが著しく低下する。
本研究は、この性能ギャップを狭めるために、敵の例の転送可能性を高めることに焦点を当てる。
事例追跡と多重マスク戦略を取り入れたNGI-Attackを提案する。
論文 参考訳(メタデータ) (2024-08-11T10:46:49Z) - Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking Defenses with Provable Confidence [34.35162562625252]
ブラックボックスの敵攻撃は、機械学習モデルを妥協する強力な可能性を示している。
証明可能な保証付きブラックボックス攻撃の新たなパラダイムについて検討する。
この新しいブラックボックス攻撃は、機械学習モデルの重大な脆弱性を露呈する。
論文 参考訳(メタデータ) (2023-04-10T01:12:09Z) - Saliency Attack: Towards Imperceptible Black-box Adversarial Attack [35.897117965803666]
そこで本稿では, ほとんど認識できない敵の例を生成するために, 摂動を小さな正弦領域に限定することを提案する。
我々はまた、より優れた非受容性を達成するために、サリアント地域の摂動を改善すべく、新しいブラックボックス攻撃であるサリアンシーアタックを提案する。
論文 参考訳(メタデータ) (2022-06-04T03:56:07Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z) - Diversity can be Transferred: Output Diversification for White- and
Black-box Attacks [89.92353493977173]
アドリア攻撃は、例えば最適化ベースのホワイトボックス攻撃を初期化したり、ブラックボックス攻撃で更新方向を生成するために、均一あるいはガウス分布から引き出された入力のランダムな摂動を伴うことが多い。
本稿では,対象モデルの出力の多様性を最大化するための新しいサンプリング手法である出力分散サンプリング(ODS)を提案する。
ODSは、既存のホワイトボックス攻撃とブラックボックス攻撃のパフォーマンスを大幅に改善する。
特に、ODSはImageNetに対する最先端のブラックボックス攻撃に必要なクエリ数を2倍に削減する。
論文 参考訳(メタデータ) (2020-03-15T17:49:25Z) - Towards Query-Efficient Black-Box Adversary with Zeroth-Order Natural
Gradient Descent [92.4348499398224]
ブラックボックスの敵攻撃手法は、実用性や単純さから特に注目されている。
敵攻撃を設計するためのゼロ階自然勾配降下法(ZO-NGD)を提案する。
ZO-NGDは、最先端攻撃法と比較して、モデルクエリの複雑さが大幅に低い。
論文 参考訳(メタデータ) (2020-02-18T21:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。