論文の概要: Back in Black: A Comparative Evaluation of Recent State-Of-The-Art
Black-Box Attacks
- arxiv url: http://arxiv.org/abs/2109.15031v1
- Date: Wed, 29 Sep 2021 04:36:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:36:44.062822
- Title: Back in Black: A Comparative Evaluation of Recent State-Of-The-Art
Black-Box Attacks
- Title(参考訳): back in black: 最近の最先端ブラックボックス攻撃の比較評価
- Authors: Kaleel Mahmood, Rigel Mahmood, Ethan Rathbun and Marten van Dijk
- Abstract要約: 敵対的機械学習の分野は、2018年以降に作成された論文の量は、ほぼ指数関数的に増加した。
本稿は、2019年以降の敵対的機械学習によるブラックボックス攻撃の最近の進歩を体系化することによって、この問題を軽減することを目的としている。
- 参考スコア(独自算出の注目度): 9.252523881586054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of adversarial machine learning has experienced a near exponential
growth in the amount of papers being produced since 2018. This massive
information output has yet to be properly processed and categorized. In this
paper, we seek to help alleviate this problem by systematizing the recent
advances in adversarial machine learning black-box attacks since 2019. Our
survey summarizes and categorizes 20 recent black-box attacks. We also present
a new analysis for understanding the attack success rate with respect to the
adversarial model used in each paper. Overall, our paper surveys a wide body of
literature to highlight recent attack developments and organizes them into four
attack categories: score based attacks, decision based attacks, transfer
attacks and non-traditional attacks. Further, we provide a new mathematical
framework to show exactly how attack results can fairly be compared.
- Abstract(参考訳): 敵対的機械学習の分野は、2018年以降に作成された論文の量は、ほぼ指数関数的に増加した。
この膨大な情報出力は、適切に処理され、分類されていない。
本稿では,2019年以降の機械学習ブラックボックス攻撃の最近の進歩を体系化することにより,この問題を軽減することを目的とする。
最近のブラックボックス攻撃20件をまとめた。
また, 各論文で用いた敵モデルに対して, 攻撃成功率を理解するための新たな分析法を提案する。
本研究は,近年の攻撃の展開を明らかにするため,幅広い文献を調査し,スコアベース攻撃,意思決定ベース攻撃,転送攻撃,非従来型攻撃の4つのカテゴリに分類した。
さらに,攻撃結果の正確な比較方法を示すための新しい数学的枠組みも提供する。
関連論文リスト
- BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - SoK: Analyzing Adversarial Examples: A Framework to Study Adversary
Knowledge [34.39273915926214]
逆の例は、誤分類を引き起こす機械学習モデルに対する悪意のある入力である。
画像分類領域に焦点をあて、秩序理論における作業にインスパイアされた敵の知識を研究するための理論的枠組みを提供する。
論文 参考訳(メタデータ) (2024-02-22T19:44:19Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Evaluation of Four Black-box Adversarial Attacks and Some
Query-efficient Improvement Analysis [6.165854333338779]
我々は、バンド、NES、スクエアアタック、ZOsignSGDの4つのブラックボックス攻撃アルゴリズムを分析した。
また,新たに提案した正方形攻撃法について,クエリ効率の向上を期待して検討した。
論文 参考訳(メタデータ) (2022-01-13T14:28:31Z) - Meta Gradient Adversarial Attack [64.5070788261061]
本稿では,MGAA(Metaversa Gradient Adrial Attack)と呼ばれる新しいアーキテクチャを提案する。
具体的には、モデル動物園から複数のモデルをランダムにサンプリングし、異なるタスクを構成するとともに、各タスクにおけるホワイトボックス攻撃とブラックボックス攻撃を反復的にシミュレートする。
ブラックボックス攻撃における勾配方向とブラックボックス攻撃の差を狭めることにより、ブラックボックス設定における逆例の転送性を向上させることができる。
論文 参考訳(メタデータ) (2021-08-09T17:44:19Z) - A Targeted Attack on Black-Box Neural Machine Translation with Parallel
Data Poisoning [60.826628282900955]
ブラックボックスNMTシステムに対する標的攻撃は、並列トレーニングデータのごく一部を毒殺することで実現可能であることを示す。
この攻撃は、システムのトレーニングデータを形成するために、クローリングされたWebドキュメントのターゲットの破損によって現実的に実現可能であることを示す。
大量の並列データで訓練された最先端のシステムでさえ、この攻撃は驚くほど低予算で(50%以上の成功率で)成功している。
論文 参考訳(メタデータ) (2020-11-02T01:52:46Z) - Beware the Black-Box: on the Robustness of Recent Defenses to
Adversarial Examples [11.117775891953018]
我々はこれらの防御分析を拡張し、適応的なブラックボックス攻撃を含むようにした。
CIFAR-10とFashionNISTMデータセットに対する2つのブラックボックス対向モデルと6つの広く研究されている対向攻撃を用いて検討を行った。
防御は、安全とみなすためには、徹底的なホワイトボックス分析とブラックボックス分析の両方が必要である。
論文 参考訳(メタデータ) (2020-06-18T22:29:12Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。