論文の概要: RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit
- arxiv url: http://arxiv.org/abs/2112.05282v3
- Date: Fri, 24 Mar 2023 02:16:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 18:59:50.700830
- Title: RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit
- Title(参考訳): RamBoAttack: 効率的なディープニューラルネットワーク決定エクスプロイトのロバストクエリ
- Authors: Viet Quoc Vo and Ehsan Abbasnejad and Damith C. Ranasinghe
- Abstract要約: 本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
- 参考スコア(独自算出の注目度): 9.93052896330371
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning models are critically susceptible to evasion attacks from
adversarial examples. Generally, adversarial examples, modified inputs
deceptively similar to the original input, are constructed under whitebox
settings by adversaries with full access to the model. However, recent attacks
have shown a remarkable reduction in query numbers to craft adversarial
examples using blackbox attacks. Particularly, alarming is the ability to
exploit the classification decision from the access interface of a trained
model provided by a growing number of Machine Learning as a Service providers
including Google, Microsoft, IBM and used by a plethora of applications
incorporating these models. The ability of an adversary to exploit only the
predicted label from a model to craft adversarial examples is distinguished as
a decision-based attack. In our study, we first deep dive into recent
state-of-the-art decision-based attacks in ICLR and SP to highlight the costly
nature of discovering low distortion adversarial employing gradient estimation
methods. We develop a robust query efficient attack capable of avoiding
entrapment in a local minimum and misdirection from noisy gradients seen in
gradient estimation methods. The attack method we propose, RamBoAttack,
exploits the notion of Randomized Block Coordinate Descent to explore the
hidden classifier manifold, targeting perturbations to manipulate only
localized input features to address the issues of gradient estimation methods.
Importantly, the RamBoAttack is more robust to the different sample inputs
available to an adversary and the targeted class. Overall, for a given target
class, RamBoAttack is demonstrated to be more robust at achieving a lower
distortion within a given query budget. We curate our extensive results using
the large-scale high-resolution ImageNet dataset and open-source our attack,
test samples and artifacts on GitHub.
- Abstract(参考訳): 機械学習モデルは、敵の例からの回避攻撃に極めて敏感である。
一般的に、元の入力と知覚的に類似した修正された入力は、モデルに完全にアクセス可能な敵によってホワイトボックス設定で構築される。
しかし、最近の攻撃では、ブラックボックス攻撃を使って敵の例を作るためにクエリ数が著しく減少している。
特にアラームは、google、microsoft、ibmを含む多くの機械学習サービスプロバイダによって提供されるトレーニングされたモデルのアクセスインターフェースから、これらのモデルを組み込んだ多数のアプリケーションによって使用される分類決定を活用できる能力である。
モデルから予測されたラベルのみを利用して敵の例を作る能力は、決定に基づく攻撃として区別される。
本研究では,iclrとspにおける最近の最先端意思決定に基づく攻撃を深く掘り下げ,勾配推定手法を用いた低歪み逆検出の費用対効果を強調する。
我々は,局所的な最小値の侵入を回避し,勾配推定法で見られる雑音勾配からの誤方向を回避できる,堅牢なクエリ効率的な攻撃を開発する。
提案する攻撃手法であるRamBoAttackは、ランダム化ブロック座標 Descent の概念を利用して隠れた分類器多様体を探索し、局所化入力のみを演算して勾配推定法の問題に対処する摂動を目標とする。
重要なことは、RamBoAttackは、敵とターゲットクラスに利用可能な異なるサンプル入力に対してより堅牢である。
全体として、特定のターゲットクラスに対して、RamBoAttackは、所定のクエリ予算内で低い歪みを達成するために、より堅牢であることが示されている。
大規模な高解像度imagenetデータセットを使用して広範な結果をキュレーションし、攻撃、テストサンプル、アーティファクトをgithubでオープンソースにしました。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - Defense Against Model Extraction Attacks on Recommender Systems [53.127820987326295]
本稿では、モデル抽出攻撃に対するリコメンデータシステムに対する防御のために、グラディエントベースのランキング最適化(GRO)を導入する。
GROは、攻撃者の代理モデルの損失を最大化しながら、保護対象モデルの損失を最小限にすることを目的としている。
その結果,モデル抽出攻撃に対するGROの防御効果は良好であった。
論文 参考訳(メタデータ) (2023-10-25T03:30:42Z) - Unrestricted Black-box Adversarial Attack Using GAN with Limited Queries [1.7205106391379026]
GANを用いた非制限逆例を生成するための新しい手法を提案する。
提案手法は遅延空間における決定に基づく攻撃の利点を効果的に活用する。
提案手法は,ブラックボックス設定における限定クエリを用いた分類モデルのロバスト性を評価するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-08-24T15:28:46Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Automated Decision-based Adversarial Attacks [48.01183253407982]
我々は、実用的で挑戦的な意思決定ベースのブラックボックスの敵意設定を考える。
この設定では、攻撃者はターゲットモデルに問い合わせるだけで最終分類ラベルを取得できる。
意思決定に基づく攻撃アルゴリズムを自動的に発見する。
論文 参考訳(メタデータ) (2021-05-09T13:15:10Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。