論文の概要: SSTA: Salient Spatially Transformed Attack
- arxiv url: http://arxiv.org/abs/2312.07258v1
- Date: Tue, 12 Dec 2023 13:38:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 16:03:48.004576
- Title: SSTA: Salient Spatially Transformed Attack
- Title(参考訳): SSTA: 空間変換攻撃
- Authors: Renyang Liu, Wei Zhou, Sixin Wu, Jun Zhao, Kwok-Yan Lam
- Abstract要約: ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
本稿では,知覚不可能な敵の例(AE)を作成するために,SSTA(Salient Spatially Transformed Attack)を提案する。
最先端のベースラインと比較して、SSTAは100%の攻撃成功率を維持しながら、AEの非感受性を効果的に改善できることを示した。
- 参考スコア(独自算出の注目度): 18.998300969035885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extensive studies have demonstrated that deep neural networks (DNNs) are
vulnerable to adversarial attacks, which brings a huge security risk to the
further application of DNNs, especially for the AI models developed in the real
world. Despite the significant progress that has been made recently, existing
attack methods still suffer from the unsatisfactory performance of escaping
from being detected by naked human eyes due to the formulation of adversarial
example (AE) heavily relying on a noise-adding manner. Such mentioned
challenges will significantly increase the risk of exposure and result in an
attack to be failed. Therefore, in this paper, we propose the Salient Spatially
Transformed Attack (SSTA), a novel framework to craft imperceptible AEs, which
enhance the stealthiness of AEs by estimating a smooth spatial transform metric
on a most critical area to generate AEs instead of adding external noise to the
whole image. Compared to state-of-the-art baselines, extensive experiments
indicated that SSTA could effectively improve the imperceptibility of the AEs
while maintaining a 100\% attack success rate.
- Abstract(参考訳): 大規模な研究は、ディープニューラルネットワーク(DNN)が敵の攻撃に対して脆弱であることを示しており、特に現実世界で開発されたAIモデルにおいて、DNNのさらなる応用に重大なセキュリティリスクをもたらす。
近年の有意な進展にもかかわらず、既存の攻撃手法は、ノイズ付加方式に強く依存する敵対的例(ae)の定式化により、まだ肉眼で検出されないという不十分な性能に苦しめられている。
このような課題は、暴露のリスクを大幅に増加させ、攻撃を失敗させる。
そこで本稿では,画像全体に外部ノイズを加えるのではなく,最も重要な領域にスムーズな空間変換距離を推定することにより,AEsのステルス性を高めるための新しいフレームワークであるSalient Spatially Transformed Attack (SSTA)を提案する。
最先端のベースラインと比較して、SSTAは攻撃成功率を100倍に保ちながら、AEの非感受性を効果的に改善できることを示した。
関連論文リスト
- Enhancing Adversarial Transferability with Adversarial Weight Tuning [36.09966860069978]
敵対的な例(AE)は、人間の観察者に対して良心を抱きながらモデルを誤解させた。
AWTは、勾配に基づく攻撃法とモデルに基づく攻撃法を組み合わせて、AEの転送可能性を高めるデータフリーチューニング手法である。
論文 参考訳(メタデータ) (2024-08-18T13:31:26Z) - Eliminating Catastrophic Overfitting Via Abnormal Adversarial Examples Regularization [50.43319961935526]
SSAT(Single-step adversarial training)は、効率性と堅牢性の両方を達成する可能性を実証している。
SSATは破滅的なオーバーフィッティング(CO)に苦しむが、これは非常に歪んだ分類器に繋がる現象である。
本研究では,SSAT学習ネットワーク上で発生するいくつかの逆の例が異常な振る舞いを示すことを観察する。
論文 参考訳(メタデータ) (2024-04-11T22:43:44Z) - STBA: Towards Evaluating the Robustness of DNNs for Query-Limited Black-box Scenario [50.37501379058119]
本研究では,クエリ制限シナリオにおいて,悪意のある逆の例を作成するために,空間変換ブラックボックス攻撃(STBA)を提案する。
そこで本研究では,STBAが対向例の認識不能性を効果的に改善し,クエリ制限条件下での攻撃成功率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-30T13:28:53Z) - Detecting and Recovering Adversarial Examples from Extracting Non-robust
and Highly Predictive Adversarial Perturbations [15.669678743693947]
敵の例(AE)は、ターゲットモデルを騙すために悪質に設計されている。
ディープニューラルネットワーク(DNN)は、敵の例に対して脆弱であることが示されている。
本稿では,被害者モデルに問い合わせることができないモデルフリーなAE検出手法を提案する。
論文 参考訳(メタデータ) (2022-06-30T08:48:28Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - MixDefense: A Defense-in-Depth Framework for Adversarial Example
Detection Based on Statistical and Semantic Analysis [14.313178290347293]
AE検出のための多層ディフェンス・イン・ディープス・フレームワーク(MixDefense)を提案する。
入力から抽出した雑音の特徴を利用して、自然画像と改ざん画像の統計的差異を抽出し、AE検出を行う。
提案したMixDefenseソリューションは,既存のAE検出技術よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2021-04-20T15:57:07Z) - SLAP: Improving Physical Adversarial Examples with Short-Lived
Adversarial Perturbations [19.14079118174123]
Short-Lived Adrial Perturbations (SLAP) は、光プロジェクターを用いて、敵が物理的に堅牢な現実世界のAEを実現できる新しい技術である。
SLAPは、敵のパッチよりも敵の攻撃に対するコントロールを大きくする。
自動走行シナリオにおけるSLAPの実現可能性について検討し,物体検出タスクと交通標識認識タスクの両方を対象として検討した。
論文 参考訳(メタデータ) (2020-07-08T14:11:21Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。