論文の概要: Reverse Engineering $\ell_p$ attacks: A block-sparse optimization
approach with recovery guarantees
- arxiv url: http://arxiv.org/abs/2203.04886v1
- Date: Wed, 9 Mar 2022 16:57:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 19:51:49.524049
- Title: Reverse Engineering $\ell_p$ attacks: A block-sparse optimization
approach with recovery guarantees
- Title(参考訳): Reverse Engineering $\ell_p$ attack: 回復保証付きブロックスパース最適化アプローチ
- Authors: Darshan Thaker, Paris Giampouras, Ren\'e Vidal
- Abstract要約: 本稿では、リバースエンジニアリング対逆攻撃の異なるが関連する問題に焦点をあてる。
我々はこの問題を,ブロックスパースな幾何回復問題として提起する。
信号と攻撃を含む部分空間を決定することで、信号を分類し、攻撃タイプを決定することもできる。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural network-based classifiers have been shown to be vulnerable to
imperceptible perturbations to their input, such as $\ell_p$-bounded norm
adversarial attacks. This has motivated the development of many defense
methods, which are then broken by new attacks, and so on. This paper focuses on
a different but related problem of reverse engineering adversarial attacks.
Specifically, given an attacked signal, we study conditions under which one can
determine the type of attack ($\ell_1$, $\ell_2$ or $\ell_\infty$) and recover
the clean signal. We pose this problem as a block-sparse recovery problem,
where both the signal and the attack are assumed to lie in a union of subspaces
that includes one subspace per class and one subspace per attack type. We
derive geometric conditions on the subspaces under which any attacked signal
can be decomposed as the sum of a clean signal plus an attack. In addition, by
determining the subspaces that contain the signal and the attack, we can also
classify the signal and determine the attack type. Experiments on digit and
face classification demonstrate the effectiveness of the proposed approach.
- Abstract(参考訳): ディープニューラルネットワークベースの分類器は、$\ell_p$-bounded norm adversarial attackのような入力に対する知覚できない摂動に弱いことが示されている。
これは多くの防衛手法の開発を動機付け、新たな攻撃によって破壊されるなどしている。
本稿では、リバースエンジニアリング対逆攻撃の異なるが関連する問題に焦点をあてる。
具体的には、攻撃された信号が与えられた場合、攻撃の種類を決定できる条件($\ell_1$, $\ell_2$, $\ell_\infty$)を調べ、クリーンな信号を復元する。
この問題は、信号と攻撃の両方がクラスごとに1つの部分空間と攻撃タイプごとに1つの部分空間を含む部分空間の結合にあると仮定されるブロックスパースリカバリ問題である。
我々は,攻撃信号がクリーン信号と攻撃信号の和として分解できる部分空間上の幾何学的条件を導出する。
さらに、信号と攻撃を含む部分空間を決定することにより、信号を分類し、攻撃タイプを決定することもできる。
桁と面の分類実験は,提案手法の有効性を示す。
関連論文リスト
- Coupled-Space Attacks against Random-Walk-based Anomaly Detection [9.296766735649209]
ランダムウォークスに基づく異常検出(RWAD)は、様々なアプリケーションにおいて異常パターンを特定するために一般的に用いられる。
RWADに対する潜在的な攻撃面は、グラフスペース攻撃とフィーチャースペース攻撃の2つがある。
論文 参考訳(メタデータ) (2023-07-26T06:42:29Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Hindering Adversarial Attacks with Implicit Neural Representations [25.422201099331637]
Lossy Implicit Network Activation Coding (LINAC) の防衛は、いくつかの共通の敵攻撃を妨害する。
鍵ベース防衛のためのパラメトリックバイパス近似(PBA)攻撃戦略を考案し,このカテゴリにおける既存手法の無効化に成功した。
論文 参考訳(メタデータ) (2022-10-22T13:10:24Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Adversarial Attacks on Gaussian Process Bandits [47.84198626686564]
本研究では,攻撃者の強さや事前情報に異なる仮定で様々な敵攻撃手法を提案する。
我々の目標は,GPバンディットに対する敵攻撃を理論的・実践的両面から理解することである。
GP帯域に対する敵攻撃は,攻撃予算が低い場合でも,$mathcalR_rmターゲットに対してアルゴリズムを強制的に強制することに成功した。
論文 参考訳(メタデータ) (2021-10-16T02:39:10Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Action-Manipulation Attacks Against Stochastic Bandits: Attacks and
Defense [45.408568528354216]
我々はアクション・マニピュレーション・アタックと呼ばれる新しいタイプの攻撃を導入する。
この攻撃では、相手が選択したアクション信号を変更することができる。
このような攻撃に対して防御するために,アクション操作攻撃に対して堅牢な新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-02-19T04:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。