論文の概要: One Word is Enough: Minimal Adversarial Perturbations for Neural Text Ranking
- arxiv url: http://arxiv.org/abs/2601.20283v1
- Date: Wed, 28 Jan 2026 05:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.79107
- Title: One Word is Enough: Minimal Adversarial Perturbations for Neural Text Ranking
- Title(参考訳): 1つの単語が十分である:ニューラルテキストランク付けのための最小対向的摂動
- Authors: Tanmay Karmakar, Sourav Saha, Debapriyo Majumdar, Surjyanee Halder,
- Abstract要約: 我々は、単一の意味的に整合したクエリセンターを挿入または置換することで、ターゲット文書をプロモートする最小限のクエリ対応アタックを導入する。
BERTとmonoT5の再ランカを備えたTREC-DLでは,1ワード攻撃が最大91%の成功を収めた。
分析の結果,中級文書が最も脆弱なGoldilocksゾーンが明らかになった。
- 参考スコア(独自算出の注目度): 0.9796303891742634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural ranking models (NRMs) achieve strong retrieval effectiveness, yet prior work has shown they are vulnerable to adversarial perturbations. We revisit this robustness question with a minimal, query-aware attack that promotes a target document by inserting or substituting a single, semantically aligned word - the query center. We study heuristic and gradient-guided variants, including a white-box method that identifies influential insertion points. On TREC-DL 2019/2020 with BERT and monoT5 re-rankers, our single-word attacks achieve up to 91% success while modifying fewer than two tokens per document on average, achieving competitive rank and score boosts with far fewer edits under a comparable white-box setup to ensure fair evaluation against PRADA. We also introduce new diagnostic metrics to analyze attack sensitivity beyond aggregate success rates. Our analysis reveals a Goldilocks zone in which mid-ranked documents are most vulnerable. These findings demonstrate practical risks and motivate future defenses for robust neural ranking.
- Abstract(参考訳): ニューラルランキングモデル (NRM) は高い検索効率を実現するが, 先行研究により, 敵の摂動に弱いことが示されている。
我々は、このロバストネスの問題を、単一の意味的に整合した単語(クエリセンター)を挿入または置換することによって、ターゲットドキュメントを促進する最小限のクエリ対応アタックで再検討する。
本研究は,有意な挿入点を同定するホワイトボックス法を含む,ヒューリスティックおよび勾配誘導型変種について検討する。
BERTとmonoT5のリランカによるTREC-DL 2019/2020において、私たちのシングルワード攻撃は、平均して2トークン未満のドキュメントを修正しながら、最大91%の成功を達成し、競合するランクとスコアのアップを、同等のホワイトボックス設定の下ではるかに少ない編集で達成し、PRADAに対する公正な評価を保証する。
また、アタック感度を総合的な成功率を超えて分析するための新しい診断指標も導入する。
分析の結果,中級文書が最も脆弱なGoldilocksゾーンが明らかになった。
これらの知見は、実用的なリスクを示し、堅牢なニューラルランキングのための将来の防御を動機付けている。
関連論文リスト
- Attack-in-the-Chain: Bootstrapping Large Language Models for Attacks Against Black-box Neural Ranking Models [111.58315434849047]
本稿では,アタック・イン・ザ・チェーン(Attack-in-the-Chain)という新しいランキングアタックフレームワークを紹介する。
大型言語モデル(LLMs)とニューラルランキングモデル(NRMs)の相互作用をチェーン・オブ・ソートに基づいて追跡する。
2つのWeb検索ベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-12-25T04:03:09Z) - EMPRA: Embedding Perturbation Rank Attack against Neural Ranking Models [20.106547084712922]
敵対的攻撃は、ユーザーをターゲットコンテンツに公開することを目的として、文書のランク付けを操作しようとする。
EMPRAは文レベルの埋め込みを操作し、クエリに関連する関連するコンテキストへと誘導する。
EMPRAは、オリジナルコンテンツとシームレスに統合し、人間には受け入れられない敵対的なテキストを生成する。
論文 参考訳(メタデータ) (2024-12-20T22:36:19Z) - Efficient Trigger Word Insertion [9.257916713112945]
我々の主な目的は、テキストバックドア攻撃において、良好なアタック成功率(ASR)を達成しつつ、有毒なサンプルの数を減らすことである。
トリガー語最適化と有毒なサンプル選択の観点から,効率的なトリガー語挿入戦略を提案する。
提案手法は, 汚れラベル設定で有毒な試料が10個あれば90%以上を達成でき, クリーンラベル設定ではトレーニングデータの1.5%しか必要としない。
論文 参考訳(メタデータ) (2023-11-23T12:15:56Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Order-Disorder: Imitation Adversarial Attacks for Black-box Neural
Ranking Models [48.93128542994217]
ブラックボックスニューラルパスランキングモデルに対する模倣逆攻撃を提案する。
重要クエリ/候補を列挙することで,対象経路ランキングモデルを透明化し,模倣することができることを示す。
また,一対の目的関数によって強化された革新的な勾配に基づく攻撃手法を提案し,敵の引き金を発生させる。
論文 参考訳(メタデータ) (2022-09-14T09:10:07Z) - BERT is Robust! A Case Against Synonym-Based Adversarial Examples in
Text Classification [8.072745157605777]
BERTに対する4つの単語置換に基づく攻撃について検討する。
彼らの成功は主に、貧弱なデータをモデルに供給することに基づいている。
追加の処理後ステップは、最先端攻撃の成功率を5%以下に下げる。
論文 参考訳(メタデータ) (2021-09-15T16:15:16Z) - Semantic-Preserving Adversarial Text Attacks [85.32186121859321]
深層モデルの脆弱性を調べるために, Bigram と Unigram を用いた適応的セマンティック保存最適化法 (BU-SPO) を提案する。
提案手法は,既存手法と比較して最小の単語数を変更することで,攻撃成功率とセマンティックス率を最大化する。
論文 参考訳(メタデータ) (2021-08-23T09:05:18Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。