論文の概要: Transfer Attacks Revisited: A Large-Scale Empirical Study in Real
Computer Vision Settings
- arxiv url: http://arxiv.org/abs/2204.04063v1
- Date: Thu, 7 Apr 2022 12:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 23:52:57.899365
- Title: Transfer Attacks Revisited: A Large-Scale Empirical Study in Real
Computer Vision Settings
- Title(参考訳): トランスファー攻撃再考:リアルコンピュータビジョン設定における大規模実証的研究
- Authors: Yuhao Mao, Chong Fu, Saizhuo Wang, Shouling Ji, Xuhong Zhang,
Zhenguang Liu, Jun Zhou, Alex X. Liu, Raheem Beyah, Ting Wang
- Abstract要約: 我々は,主要なクラウドベースのMLプラットフォームに対する転送攻撃について,最初の系統的実証的研究を行った。
この研究は、既存のものと矛盾しない多くの興味深い発見につながっている。
この作業は、一般的なMLプラットフォームの脆弱性に光を当て、いくつかの有望な研究方向を指し示している、と私たちは信じています。
- 参考スコア(独自算出の注目度): 64.37621685052571
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One intriguing property of adversarial attacks is their "transferability" --
an adversarial example crafted with respect to one deep neural network (DNN)
model is often found effective against other DNNs as well. Intensive research
has been conducted on this phenomenon under simplistic controlled conditions.
Yet, thus far, there is still a lack of comprehensive understanding about
transferability-based attacks ("transfer attacks") in real-world environments.
To bridge this critical gap, we conduct the first large-scale systematic
empirical study of transfer attacks against major cloud-based MLaaS platforms,
taking the components of a real transfer attack into account. The study leads
to a number of interesting findings which are inconsistent to the existing
ones, including: (1) Simple surrogates do not necessarily improve real transfer
attacks. (2) No dominant surrogate architecture is found in real transfer
attacks. (3) It is the gap between posterior (output of the softmax layer)
rather than the gap between logit (so-called $\kappa$ value) that increases
transferability. Moreover, by comparing with prior works, we demonstrate that
transfer attacks possess many previously unknown properties in real-world
environments, such as (1) Model similarity is not a well-defined concept. (2)
$L_2$ norm of perturbation can generate high transferability without usage of
gradient and is a more powerful source than $L_\infty$ norm. We believe this
work sheds light on the vulnerabilities of popular MLaaS platforms and points
to a few promising research directions.
- Abstract(参考訳): 1つのディープニューラルネットワーク(DNN)モデルに関して構築された敵の例は、他のDNNにも有効であることがよく見出される。
この現象は、単純化された制御条件下で集中的に研究されている。
しかし、今のところ、現実世界の環境での転送可能性に基づく攻撃(転送攻撃)に関する包括的理解が不足している。
この重要なギャップを埋めるために、我々は、大規模なクラウドベースのMLaaSプラットフォームに対する転送攻撃について、大規模な体系的研究を行い、実際の転送攻撃のコンポーネントを考慮に入れた。
1) 単純なサロゲートは必ずしも実際の転送攻撃を改善するものではない。
2) 実際の転送攻撃では支配的なサロゲートアーキテクチャは見出されない。
(3) 転送可能性を高めるロジット(いわゆる$\kappa$値)間のギャップではなく、後方(ソフトマックス層の出力)間のギャップである。
さらに,先行研究との比較により,(1)モデル類似性が明確に定義されていないような実環境において,転送攻撃が未知の多くの特性を持つことを示す。
2)$L_2$ 摂動のノルムは勾配を使わずに高い転送可能性を生み出すことができ、$L_\infty$ ノルムよりも強力な情報源である。
この作業は、一般的なMLaaSプラットフォームの脆弱性に光を当て、いくつかの有望な研究方向を示すものだと考えています。
関連論文リスト
- Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - Explainable and Transferable Adversarial Attack for ML-Based Network Intrusion Detectors [24.1840740489442]
機械学習(ML)は、敵の攻撃に対して非常に脆弱であることが証明されている。
NIDSのホワイトボックス攻撃とブラックボックス攻撃はいくつかの研究で研究されている。
本稿では、説明可能な転送ベースのブラックボックスアタックフレームワークであるETAを紹介する。
論文 参考訳(メタデータ) (2024-01-19T13:43:09Z) - Set-level Guidance Attack: Boosting Adversarial Transferability of
Vision-Language Pre-training Models [52.530286579915284]
本稿では,視覚言語事前学習モデルの対角移動可能性について検討する。
伝達性劣化は、部分的にはクロスモーダル相互作用のアンダーユース化によって引き起こされる。
本稿では,高度に伝達可能なSGA(Set-level Guidance Attack)を提案する。
論文 参考訳(メタデータ) (2023-07-26T09:19:21Z) - Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - Logit Margin Matters: Improving Transferable Targeted Adversarial Attack
by Logit Calibration [85.71545080119026]
クロスエントロピー(CE)損失関数は、伝達可能な標的対向例を学習するには不十分である。
本稿では,ロジットを温度係数と適応マージンでダウンスケールすることで,ロジットのキャリブレーションを簡易かつ効果的に行う2つの手法を提案する。
ImageNetデータセットを用いて実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-07T06:42:52Z) - Towards Transferable Unrestricted Adversarial Examples with Minimum
Changes [13.75751221823941]
転送ベースの敵の例はブラックボックス攻撃の最も重要なクラスの一つである。
対人摂動の伝達可能性と非受容性の間にはトレードオフがある。
最小限の変更を伴って転送可能な逆例を生成するための幾何対応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-04T12:03:20Z) - Demystifying the Transferability of Adversarial Attacks in Computer
Networks [23.80086861061094]
CNNベースのモデルは様々な敵攻撃を受ける。
いくつかの敵対的な例は、異なる未知のモデルに対して効果がある可能性がある。
本稿では,CNNモデルによる対向移動性に対するロバスト性を評価する。
論文 参考訳(メタデータ) (2021-10-09T07:20:44Z) - Going Far Boosts Attack Transferability, but Do Not Do It [16.901240544106948]
7つの最適化アルゴリズム,4つのサロゲート,9つのブラックボックスモデルに関する包括的実験により,攻撃伝達性に対する最適化の影響を検討した。
最適化アルゴリズムからのAEsの様々な転送性は、元のサンプルから得られたRoot Mean Square Error(RMSE)と強く関係している。
LARAは転送可能性を大幅に20%改善するが、DNNの脆弱性を利用するには不十分である。
論文 参考訳(メタデータ) (2021-02-20T13:19:31Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - TREND: Transferability based Robust ENsemble Design [6.663641564969944]
本稿では, ネットワークアーキテクチャ, 入力, 重量, アクティベーションの量子化が, 対向サンプルの転送性に及ぼす影響について検討する。
本研究では,ソースとターゲット間の入力量子化によってトランスファービリティが著しく阻害されていることを示す。
我々は、これに対抗するために、新しい最先端のアンサンブル攻撃を提案する。
論文 参考訳(メタデータ) (2020-08-04T13:38:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。