論文の概要: A Strong Baseline for Query Efficient Attacks in a Black Box Setting
- arxiv url: http://arxiv.org/abs/2109.04775v1
- Date: Fri, 10 Sep 2021 10:46:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:32:26.359043
- Title: A Strong Baseline for Query Efficient Attacks in a Black Box Setting
- Title(参考訳): ブラックボックスにおけるクエリー効率の高い攻撃のための強固なベースライン
- Authors: Rishabh Maheshwary, Saket Maheshwary and Vikram Pudi
- Abstract要約: そこで本研究では,テキスト分類とエンタテインメントタスクにおいて,妥当な敵の例を生成するためのクエリ効率のよい攻撃戦略を提案する。
我々の攻撃は、クエリ数を減らすために、注意機構と局所性に敏感なハッシュ(LSH)を併用する。
- 参考スコア(独自算出の注目度): 3.52359746858894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing black box search methods have achieved high success rate in
generating adversarial attacks against NLP models. However, such search methods
are inefficient as they do not consider the amount of queries required to
generate adversarial attacks. Also, prior attacks do not maintain a consistent
search space while comparing different search methods. In this paper, we
propose a query efficient attack strategy to generate plausible adversarial
examples on text classification and entailment tasks. Our attack jointly
leverages attention mechanism and locality sensitive hashing (LSH) to reduce
the query count. We demonstrate the efficacy of our approach by comparing our
attack with four baselines across three different search spaces. Further, we
benchmark our results across the same search space used in prior attacks. In
comparison to attacks proposed, on an average, we are able to reduce the query
count by 75% across all datasets and target models. We also demonstrate that
our attack achieves a higher success rate when compared to prior attacks in a
limited query setting.
- Abstract(参考訳): 既存のブラックボックス検索手法は、NLPモデルに対する敵攻撃を発生させることに成功した。
しかし,このような検索手法は,敵の攻撃を発生させるのに必要なクエリ量を考慮していないため,非効率である。
また、先行攻撃は、異なる検索方法を比較しながら一貫した検索空間を維持しない。
本稿では,テキスト分類と包含タスクにおいて,適切な逆例を生成するためのクエリ効率の高い攻撃戦略を提案する。
この攻撃はアテンション機構と局所性センシティブハッシュ(lsh)を併用してクエリ数を削減する。
3つの異なる検索空間にまたがる4つのベースラインと比較し,本手法の有効性を示す。
さらに、先行攻撃で使用されるのと同じ検索空間において、結果のベンチマークを行う。
提案された攻撃と比較して、平均して、すべてのデータセットとターゲットモデルに対して、クエリ数を75%削減することが可能です。
また,クエリ設定が限定された場合と比較して,攻撃が成功率が高いことを示す。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Query Provenance Analysis: Efficient and Robust Defense against Query-based Black-box Attacks [11.32992178606254]
我々は、より堅牢で効率的なステートフルディフェンスモデル(SDM)のための新しいアプローチ、QPA(Query Provenance Analysis)を提案する。
QPAは、クエリ間の履歴関係をシーケンスの特徴としてカプセル化し、良性クエリシーケンスと逆性クエリシーケンスの基本的な違いをキャプチャする。
我々は,6つのクエリベースのブラックボックスアタックアルゴリズムを用いて,広く使用されている4つのデータセットに対して,2つのベースラインであるBlackLightとPIHAと比較した。
論文 参考訳(メタデータ) (2024-05-31T06:56:54Z) - BufferSearch: Generating Black-Box Adversarial Texts With Lower Queries [29.52075716869515]
ブラックボックスの敵攻撃は、高いモデルクエリの複雑さに悩まされる。
冗長なモデルクエリを排除する方法はめったにない。
本稿では,一般的な知的NLPシステムを効果的に攻撃するための問合せ効率の高いアプローチであるBufferSearchを提案する。
論文 参考訳(メタデータ) (2023-10-14T19:49:02Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Blackbox Attacks via Surrogate Ensemble Search [18.413568112132197]
代理アンサンブルサーチ(BASES)によるブラックボックス攻撃の新しい手法を提案する。
提案手法は,最先端の手法と比較して,少なくとも30倍少ないクエリで良好な成功率が得られることを示す。
われわれの方法はGoogle Cloud Vision APIでも有効であり、画像当たり2.9クエリで91%の非ターゲット攻撃成功率を達成した。
論文 参考訳(メタデータ) (2022-08-07T01:24:11Z) - A Simple Yet Efficient Method for Adversarial Word-Substitute Attack [30.445201832698192]
本稿では, 逆クエリの平均回数を3~30倍に削減する, 単純かつ効率的な手法を提案する。
この研究は、敵がより少ないコストで深いNLPモデルを騙すことができることを強調している。
論文 参考訳(メタデータ) (2022-05-07T14:20:57Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval [56.51916317628536]
画像検索に対するクエリベースの攻撃について検討し,ブラックボックス設定下での対比例に対する堅牢性を評価する。
新たな関連性に基づく損失は、攻撃前後のトップk検索結果のセット類似度を測定して攻撃効果を定量化するように設計されている。
提案手法は,ブラックボックス設定による画像検索システムに対するクエリ数が少なく,高い攻撃成功率を達成できることを示す実験である。
論文 参考訳(メタデータ) (2021-03-04T10:18:43Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。