論文の概要: Theoretical Corrections and the Leveraging of Reinforcement Learning to Enhance Triangle Attack
- arxiv url: http://arxiv.org/abs/2411.12071v1
- Date: Mon, 18 Nov 2024 21:31:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:36:13.658418
- Title: Theoretical Corrections and the Leveraging of Reinforcement Learning to Enhance Triangle Attack
- Title(参考訳): 三角法攻撃に対する強化学習の理論的補正と活用
- Authors: Nicole Meng, Caleb Manicke, David Chen, Yingjie Lao, Caiwen Ding, Pengyu Hong, Kaleel Mahmood,
- Abstract要約: Adrialversaの例は、多くのセンシティブなドメインで機械学習モデルを適用する上で深刻な問題である。
敵の例を生成するために、決定に基づくブラックボックス攻撃は最も実践的な手法の1つである。
我々は,新たな決定に基づくブラックボックス攻撃,Triangle Attack with Reinforcement Learning (TARL)を提案する。
- 参考スコア(独自算出の注目度): 20.426012630055354
- License:
- Abstract: Adversarial examples represent a serious issue for the application of machine learning models in many sensitive domains. For generating adversarial examples, decision based black-box attacks are one of the most practical techniques as they only require query access to the model. One of the most recently proposed state-of-the-art decision based black-box attacks is Triangle Attack (TA). In this paper, we offer a high-level description of TA and explain potential theoretical limitations. We then propose a new decision based black-box attack, Triangle Attack with Reinforcement Learning (TARL). Our new attack addresses the limits of TA by leveraging reinforcement learning. This creates an attack that can achieve similar, if not better, attack accuracy than TA with half as many queries on state-of-the-art classifiers and defenses across ImageNet and CIFAR-10.
- Abstract(参考訳): 逆例は、多くのセンシティブなドメインにおける機械学習モデルの適用にとって深刻な問題である。
敵対的な例を生成するために、決定ベースのブラックボックス攻撃は、モデルへのクエリアクセスのみを必要とするため、最も実践的な手法の1つである。
最も最近提案された最先端の意思決定ベースのブラックボックス攻撃の1つは、三角攻撃(TA)である。
本稿では,TAの高レベルな記述と潜在的な理論的限界を説明する。
そこで我々は,新たな決定に基づくブラックボックス攻撃,Triangle Attack with Reinforcement Learning (TARL)を提案する。
我々の新たな攻撃は、強化学習を活用することで、TAの限界に対処する。
これにより、ImageNetとCIFAR-10をまたいで、最先端の分類器と防御に関するクエリを半分にすることで、TAと同じような精度で攻撃することができる。
関連論文リスト
- Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking Defenses with Provable Confidence [34.35162562625252]
ブラックボックスの敵攻撃は、機械学習モデルを妥協する強力な可能性を示している。
証明可能な保証付きブラックボックス攻撃の新たなパラダイムについて検討する。
この新しいブラックボックス攻撃は、機械学習モデルの重大な脆弱性を露呈する。
論文 参考訳(メタデータ) (2023-04-10T01:12:09Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Towards Lightweight Black-Box Attacks against Deep Neural Networks [70.9865892636123]
ブラックボックス攻撃は、いくつかのテストサンプルしか利用できない実用的な攻撃を引き起こす可能性があると我々は主張する。
いくつかのサンプルが必要なので、これらの攻撃を軽量なブラックボックス攻撃と呼ぶ。
近似誤差を軽減するために,Error TransFormer (ETF) を提案する。
論文 参考訳(メタデータ) (2022-09-29T14:43:03Z) - Art-Attack: Black-Box Adversarial Attack via Evolutionary Art [5.760976250387322]
ディープニューラルネットワーク(DNN)は多くのタスクで最先端のパフォーマンスを達成したが、敵の例によって生成された攻撃に対して極端な脆弱性を示している。
本稿では, 進化芸術の概念を用いて, 敵対的事例を生成することによって, 勾配のない攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-07T12:54:09Z) - Triangle Attack: A Query-efficient Decision-based Adversarial Attack [19.350069624506858]
長辺が任意の三角形の大きい角度に対して常に反対であるという幾何学的情報を活用することにより、摂動を最適化する新しい三角攻撃(TA)を提案する。
TAは1,000クエリ以内の攻撃成功率をはるかに高く達成し、さまざまな摂動予算の下で同じ攻撃成功率を達成するために、クエリ数をはるかに少なくする必要がある。
論文 参考訳(メタデータ) (2021-12-13T11:24:20Z) - Small Input Noise is Enough to Defend Against Query-based Black-box
Attacks [23.712389625037442]
本稿では,クエリベースのブラックボックス攻撃に対して,ノイズ防御がいかに小さいかを示す。
小さな追加入力ノイズでも、ほとんどのクエリベースの攻撃を中和できます。
強力な防御能力を持つSNDは、元のクリーンな精度と計算速度をほぼ維持します。
論文 参考訳(メタデータ) (2021-01-13T01:45:59Z) - Simple and Efficient Hard Label Black-box Adversarial Attacks in Low
Query Budget Regimes [80.9350052404617]
そこで我々は,ブラックボックス攻撃の簡易かつ効率的なベイズ最適化(BO)に基づく手法を提案する。
高次元におけるBOの性能に関する問題は、構造化された低次元部分空間における逆例を探すことによって回避される。
提案手法は,10倍から20倍のクエリを必要としながら,攻撃成功率を2倍から10倍に向上させる。
論文 参考訳(メタデータ) (2020-07-13T04:34:57Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z) - QEBA: Query-Efficient Boundary-Based Blackbox Attack [27.740081902519517]
モデルの最終予測ラベルのみに基づいて,クエリ効率の良い境界ベースのブラックボックスアタック(QEBA)を提案する。
現状のブラックボックス攻撃と比較して、QEBAは、100%攻撃成功率の低い摂動量を達成するために、より少ないクエリを使用できることを示す。
論文 参考訳(メタデータ) (2020-05-28T16:41:12Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。