論文の概要: BinarySelect to Improve Accessibility of Black-Box Attack Research
- arxiv url: http://arxiv.org/abs/2412.10617v1
- Date: Fri, 13 Dec 2024 23:42:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:59:26.224331
- Title: BinarySelect to Improve Accessibility of Black-Box Attack Research
- Title(参考訳): ブラックボックス攻撃研究におけるアクセシビリティ向上のためのバイナリセレクション
- Authors: Shatarupa Ghosh, Jonathan Rusert,
- Abstract要約: アドリアテキスト攻撃の研究は、NLPモデルの堅牢性をテストするのに有用である。
トランスの台頭は、攻撃をテストするのに必要な時間を大幅に増加させた。
本稿では,トークン発見に必要なクエリ数を大幅に削減するBinarySelectという,より効率的な選択手法を提案する。
- 参考スコア(独自算出の注目度): 9.860241174078372
- License:
- Abstract: Adversarial text attack research is useful for testing the robustness of NLP models, however, the rise of transformers has greatly increased the time required to test attacks. Especially when researchers do not have access to adequate resources (e.g. GPUs). This can hinder attack research, as modifying one example for an attack can require hundreds of queries to a model, especially for black-box attacks. Often these attacks remove one token at a time to find the ideal one to change, requiring $n$ queries (the length of the text) right away. We propose a more efficient selection method called BinarySelect which combines binary search and attack selection methods to greatly reduce the number of queries needed to find a token. We find that BinarySelect only needs $\text{log}_2(n) * 2$ queries to find the first token compared to $n$ queries. We also test BinarySelect in an attack setting against 5 classifiers across 3 datasets and find a viable tradeoff between number of queries saved and attack effectiveness. For example, on the Yelp dataset, the number of queries is reduced by 32% (72 less) with a drop in attack effectiveness of only 5 points. We believe that BinarySelect can help future researchers study adversarial attacks and black-box problems more efficiently and opens the door for researchers with access to less resources.
- Abstract(参考訳): 逆テキスト攻撃研究は、NLPモデルの堅牢性をテストするのに有用であるが、攻撃をテストするのに必要なトランスフォーマーの出現が大幅に増加した。
特に研究者が十分なリソース(例えばGPU)にアクセスできない場合。
攻撃の1つの例を変更するには、モデルに対する数百のクエリ、特にブラックボックスアタックが必要になるため、攻撃研究を妨げる可能性がある。
多くの場合、これらの攻撃は変更すべきトークンを見つけるために一度に1つのトークンを削除し、すぐに$n$クエリ(テキストの長さ)を必要とする。
本稿では,バイナリ検索とアタック選択を組み合わせたより効率的な選択手法BinarySelectを提案し,トークンの検索に必要なクエリ数を大幅に削減する。
BinarySelectは$\text{log}_2(n) * 2$クエリだけで、$n$クエリに比べて最初のトークンを見つけることができる。
また、3つのデータセットにまたがる5つの分類子に対するアタック設定でBinarySelectをテストし、保存されたクエリの数とアタックの有効性のトレードオフを見つけました。
例えばYelpのデータセットでは、クエリの数は32%(72以下)削減され、攻撃効率はわずか5ポイントに低下する。
BinarySelectは、将来の研究者が敵の攻撃やブラックボックスの問題をより効率的に研究し、少ないリソースにアクセスできる研究者の扉を開くのに役立つと信じています。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - BufferSearch: Generating Black-Box Adversarial Texts With Lower Queries [29.52075716869515]
ブラックボックスの敵攻撃は、高いモデルクエリの複雑さに悩まされる。
冗長なモデルクエリを排除する方法はめったにない。
本稿では,一般的な知的NLPシステムを効果的に攻撃するための問合せ効率の高いアプローチであるBufferSearchを提案する。
論文 参考訳(メタデータ) (2023-10-14T19:49:02Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - A Simple Yet Efficient Method for Adversarial Word-Substitute Attack [30.445201832698192]
本稿では, 逆クエリの平均回数を3~30倍に削減する, 単純かつ効率的な手法を提案する。
この研究は、敵がより少ないコストで深いNLPモデルを騙すことができることを強調している。
論文 参考訳(メタデータ) (2022-05-07T14:20:57Z) - A Strong Baseline for Query Efficient Attacks in a Black Box Setting [3.52359746858894]
そこで本研究では,テキスト分類とエンタテインメントタスクにおいて,妥当な敵の例を生成するためのクエリ効率のよい攻撃戦略を提案する。
我々の攻撃は、クエリ数を減らすために、注意機構と局所性に敏感なハッシュ(LSH)を併用する。
論文 参考訳(メタデータ) (2021-09-10T10:46:32Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Query complexity of adversarial attacks [4.873362301533825]
敵対的文献では、ブラックボックスとホワイトボックスの2つの主要な攻撃モデルが検討されている。
これらの脅威モデルは、敵が問うことのできるクエリの数によってインデックスされた、きめ細かいスペクトルの2つの端であると考えている。
我々は、ホワイトボックスモデルで可能な攻撃に匹敵する攻撃を設計するために、敵が要求するクエリ数を調査する。
論文 参考訳(メタデータ) (2020-10-02T15:01:29Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Simple and Efficient Hard Label Black-box Adversarial Attacks in Low
Query Budget Regimes [80.9350052404617]
そこで我々は,ブラックボックス攻撃の簡易かつ効率的なベイズ最適化(BO)に基づく手法を提案する。
高次元におけるBOの性能に関する問題は、構造化された低次元部分空間における逆例を探すことによって回避される。
提案手法は,10倍から20倍のクエリを必要としながら,攻撃成功率を2倍から10倍に向上させる。
論文 参考訳(メタデータ) (2020-07-13T04:34:57Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。