論文の概要: Don't Search for a Search Method -- Simple Heuristics Suffice for
Adversarial Text Attacks
- arxiv url: http://arxiv.org/abs/2109.07926v1
- Date: Thu, 16 Sep 2021 12:22:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 14:02:47.419387
- Title: Don't Search for a Search Method -- Simple Heuristics Suffice for
Adversarial Text Attacks
- Title(参考訳): 検索法を検索しない - 逆テキスト攻撃に対する単純なヒューリスティックス
- Authors: Nathaniel Berger, Stefan Riezler, Artem Sokolov, Sebastian Ebert
- Abstract要約: ゼロオーダーの最適化に基づく攻撃にインスパイアされたアルゴリズムを実装し、TextAttackフレームワークのベンチマーク結果と比較する。
驚いたことに、最適化に基づく手法は制約された設定においていかなる改善をもたらさない。
これらの結果から、現在のTextAttackベンチマークタスクは簡単すぎて制約が厳しすぎて、ブラックボックスの敵対的テキスト攻撃に関する有意義な研究が妨げられていると結論付けている。
- 参考スコア(独自算出の注目度): 11.196974000738729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently more attention has been given to adversarial attacks on neural
networks for natural language processing (NLP). A central research topic has
been the investigation of search algorithms and search constraints, accompanied
by benchmark algorithms and tasks. We implement an algorithm inspired by zeroth
order optimization-based attacks and compare with the benchmark results in the
TextAttack framework. Surprisingly, we find that optimization-based methods do
not yield any improvement in a constrained setup and slightly benefit from
approximate gradient information only in unconstrained setups where search
spaces are larger. In contrast, simple heuristics exploiting nearest neighbors
without querying the target function yield substantial success rates in
constrained setups, and nearly full success rate in unconstrained setups, at an
order of magnitude fewer queries. We conclude from these results that current
TextAttack benchmark tasks are too easy and constraints are too strict,
preventing meaningful research on black-box adversarial text attacks.
- Abstract(参考訳): 近年,自然言語処理(NLP)のためのニューラルネットワークに対する敵攻撃に注目が集まっている。
中心的な研究テーマは、ベンチマークアルゴリズムとタスクを伴う検索アルゴリズムと検索制約の調査である。
ゼロオーダー最適化に基づく攻撃にインスパイアされたアルゴリズムを実装し、TextAttackフレームワークのベンチマーク結果と比較する。
驚くべきことに、最適化に基づく手法は制約付きセットアップでは改善されず、検索スペースが大きい制約付き設定でのみ近似勾配情報を利用できる。
対照的に、目標関数を問合せせずに最も近い隣人を利用する単純なヒューリスティックは、制約された設定でかなりの成功率をもたらし、訓練されていない設定でほぼ完全な成功率を、非常に少ないクエリで得る。
これらの結果から、現在のTextAttackベンチマークタスクは簡単すぎて制約が厳しすぎて、ブラックボックスの敵対的テキスト攻撃に関する有意義な研究が妨げられていると結論付けた。
関連論文リスト
- BufferSearch: Generating Black-Box Adversarial Texts With Lower Queries [29.52075716869515]
ブラックボックスの敵攻撃は、高いモデルクエリの複雑さに悩まされる。
冗長なモデルクエリを排除する方法はめったにない。
本稿では,一般的な知的NLPシステムを効果的に攻撃するための問合せ効率の高いアプローチであるBufferSearchを提案する。
論文 参考訳(メタデータ) (2023-10-14T19:49:02Z) - Efficiently Explaining CSPs with Unsatisfiable Subset Optimization
(extended algorithms and examples) [14.163888405810635]
我々は,制約満足度問題の解法を段階的に説明する手法を最近提案した。
ここでは、コスト関数を用いて単純さを定量化する単純な推論ステップの列を説明する。
論文 参考訳(メタデータ) (2023-03-21T10:03:36Z) - Query-Efficient and Scalable Black-Box Adversarial Attacks on Discrete
Sequential Data via Bayesian Optimization [10.246596695310176]
ブラックボックス設定における離散的な逐次データに基づくモデルに対する敵攻撃の問題に焦点をあてる。
我々はベイジアン最適化を用いたクエリ効率の良いブラックボックス攻撃を提案し、重要な位置を動的に計算する。
そこで我々は,摂動サイズを小さくした逆例を求めるポスト最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-17T06:11:36Z) - Revisiting and Advancing Fast Adversarial Training Through The Lens of
Bi-Level Optimization [60.72410937614299]
提案手法は,2レベルAT(FAST-BAT)と呼ばれる新しいアルゴリズムセットの設計と解析である。
FAST-BATは、グラデーションサインメソッドや明示的なロバスト正規化を呼ぶことなく、符号ベースの投射降下(PGD)攻撃を防御することができる。
論文 参考訳(メタデータ) (2021-12-23T06:25:36Z) - Machine Learning for Online Algorithm Selection under Censored Feedback [71.6879432974126]
オンラインアルゴリズム選択(OAS)では、アルゴリズム問題クラスのインスタンスがエージェントに次々に提示され、エージェントは、固定された候補アルゴリズムセットから、おそらく最高のアルゴリズムを迅速に選択する必要がある。
SAT(Satisfiability)のような決定問題に対して、品質は一般的にアルゴリズムのランタイムを指す。
本研究では,OASのマルチアームバンディットアルゴリズムを再検討し,この問題に対処する能力について議論する。
ランタイム指向の損失に適応し、時間的地平線に依存しない空間的・時間的複雑さを維持しながら、部分的に検閲されたデータを可能にする。
論文 参考訳(メタデータ) (2021-09-13T18:10:52Z) - On the Convergence of Prior-Guided Zeroth-Order Optimization Algorithms [33.96864594479152]
我々は、様々な勾配推定器を用いたグリーディ降下フレームワークの下で、事前誘導ZOアルゴリズムの収束を解析する。
また、先行情報と収束解析を組み込んだ新しい高速化ランダムサーチ(ARS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-21T14:39:40Z) - Automated Decision-based Adversarial Attacks [48.01183253407982]
我々は、実用的で挑戦的な意思決定ベースのブラックボックスの敵意設定を考える。
この設定では、攻撃者はターゲットモデルに問い合わせるだけで最終分類ラベルを取得できる。
意思決定に基づく攻撃アルゴリズムを自動的に発見する。
論文 参考訳(メタデータ) (2021-05-09T13:15:10Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - An Asymptotically Optimal Primal-Dual Incremental Algorithm for
Contextual Linear Bandits [129.1029690825929]
複数の次元に沿った最先端技術を改善する新しいアルゴリズムを提案する。
非文脈線形帯域の特別な場合において、学習地平線に対して最小限の最適性を確立する。
論文 参考訳(メタデータ) (2020-10-23T09:12:47Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Searching for a Search Method: Benchmarking Search Algorithms for
Generating NLP Adversarial Examples [10.993342896547691]
自然言語処理(NLP)タスクの逆例を生成するために,複数のブラックボックス探索アルゴリズムの動作について検討した。
検索アルゴリズム,検索空間,検索予算の3つの要素を詳細に分析する。
論文 参考訳(メタデータ) (2020-09-09T17:04:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。