論文の概要: PivotAttack: Rethinking the Search Trajectory in Hard-Label Text Attacks via Pivot Words
- arxiv url: http://arxiv.org/abs/2603.10842v1
- Date: Wed, 11 Mar 2026 14:50:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:33.007511
- Title: PivotAttack: Rethinking the Search Trajectory in Hard-Label Text Attacks via Pivot Words
- Title(参考訳): PivotAttack: Pivot Wordsによるハードラベルテキスト攻撃における検索軌跡の再考
- Authors: Yuzhi Liang, Shiliang Xiao, Jingsong Wei, Qiliang Lin, Xia Li,
- Abstract要約: クエリ効率のよい"インサイドアウト"フレームワークであるPivotAttackを提案する。
PivotAttackは、アタック成功率とクエリ効率の両方において、最先端のベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 7.492074349604156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing hard-label text attacks often rely on inefficient "outside-in" strategies that traverse vast search spaces. We propose PivotAttack, a query-efficient "inside-out" framework. It employs a Multi-Armed Bandit algorithm to identify Pivot Sets-combinatorial token groups acting as prediction anchors-and strategically perturbs them to induce label flips. This approach captures inter-word dependencies and minimizes query costs. Extensive experiments across traditional models and Large Language Models demonstrate that PivotAttack consistently outperforms state-of-the-art baselines in both Attack Success Rate and query efficiency.
- Abstract(参考訳): 既存のハードラベルのテキスト攻撃は、広大な検索空間を横断する非効率な「外部」戦略に依存していることが多い。
クエリ効率のよい"インサイドアウト"フレームワークであるPivotAttackを提案する。
このアルゴリズムは、Pivot Sets-combinatorial token groupが予測アンカーとして機能し、ラベルフリップを誘導するために戦略的に摂動するのを特定するために、Multi-Armed Banditアルゴリズムを使用している。
このアプローチは単語間の依存関係をキャプチャし、クエリコストを最小限にする。
従来のモデルと大規模言語モデルにわたる大規模な実験は、PivotAttackがアタック成功率とクエリ効率の両方において、最先端のベースラインを一貫して上回っていることを示している。
関連論文リスト
- Boundary on the Table: Efficient Black-Box Decision-Based Attacks for Structured Data [2.02409171087469]
構造化データの敵対的ロバスト性は、視覚や言語ドメインと比較して未探索のフロンティアのままである。
本手法は、勾配のない方向推定と反復境界探索を組み合わせ、離散的かつ連続的な特徴空間の効率的なナビゲーションを可能にする。
実験により,本手法は多種多様なモデルでテストセットのほぼ全域を損なうことができた。
論文 参考訳(メタデータ) (2025-09-26T19:00:11Z) - HQA-Attack: Toward High Quality Black-Box Hard-Label Adversarial Attack
on Text [40.58680960214544]
テキストに対するブラックボックスのハードラベルの敵攻撃は、実用的で困難な作業である。
そこで我々は,HQA-Attack というブラックボックス・ハードラベル攻撃シナリオの下で,高品質な敵の例を生成するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T10:06:43Z) - LimeAttack: Local Explainable Method for Textual Hard-Label Adversarial
Attack [3.410883081705873]
本稿では,LimeAttackという新しいハードラベル攻撃アルゴリズムを提案する。
LimeAttackは既存のハードラベル攻撃と比較して攻撃性能が良いことを示す。
LimeAttackによって作られた敵の例は高度に伝達可能であり、敵の訓練におけるモデルロバスト性を効果的に改善する。
論文 参考訳(メタデータ) (2023-08-01T06:30:37Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - SUN: Exploring Intrinsic Uncertainties in Text-to-SQL Parsers [61.48159785138462]
本稿では,ニューラルネットワークに基づくアプローチ(SUN)における本質的な不確かさを探索することにより,テキストから依存への変換性能を向上させることを目的とする。
5つのベンチマークデータセットの大規模な実験により、我々の手法は競合より大幅に優れ、新しい最先端の結果が得られた。
論文 参考訳(メタデータ) (2022-09-14T06:27:51Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - X2Parser: Cross-Lingual and Cross-Domain Framework for Task-Oriented
Compositional Semantic Parsing [51.81533991497547]
タスク指向コンポジションセマンティックパーシング(TCSP)は複雑なネストされたユーザクエリを処理する。
本報告では,TCSPの変換可能なクロスランガルとクロスドメインを比較した。
本稿では,フラット化意図とスロット表現を別々に予測し,両方の予測タスクをシーケンスラベリング問題にキャストすることを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:40:05Z) - Defense against Adversarial Attacks in NLP via Dirichlet Neighborhood
Ensemble [163.3333439344695]
Dirichlet Neighborhood Ensemble (DNE) は、ロバストモデルを用いて置換攻撃を防御するランダムな平滑化手法である。
DNEは、単語とその同義語で区切られた凸殻から入力文中の各単語の埋め込みベクトルをサンプリングして仮想文を生成し、訓練データでそれらを増強する。
我々は,提案手法が最近提案した防衛手法を,異なるネットワークアーキテクチャと複数のデータセット間で有意差で一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-20T18:01:16Z) - BERT-ATTACK: Adversarial Attack Against BERT Using BERT [77.82947768158132]
離散データ(テキストなど)に対するアドリアック攻撃は、連続データ(画像など)よりも難しい。
対戦型サンプルを生成するための高品質で効果的な方法である textbfBERT-Attack を提案する。
本手法は、成功率と摂動率の両方において、最先端の攻撃戦略より優れている。
論文 参考訳(メタデータ) (2020-04-21T13:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。