論文の概要: Multi-granular Adversarial Attacks against Black-box Neural Ranking Models
- arxiv url: http://arxiv.org/abs/2404.01574v2
- Date: Thu, 11 Apr 2024 02:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 18:06:21.953039
- Title: Multi-granular Adversarial Attacks against Black-box Neural Ranking Models
- Title(参考訳): ブラックボックスニューラルランクモデルに対するマルチグラニュラー逆攻撃
- Authors: Yu-An Liu, Ruqing Zhang, Jiafeng Guo, Maarten de Rijke, Yixing Fan, Xueqi Cheng,
- Abstract要約: 多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
- 参考スコア(独自算出の注目度): 111.58315434849047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial ranking attacks have gained increasing attention due to their success in probing vulnerabilities, and, hence, enhancing the robustness, of neural ranking models. Conventional attack methods employ perturbations at a single granularity, e.g., word or sentence level, to target documents. However, limiting perturbations to a single level of granularity may reduce the flexibility of adversarial examples, thereby diminishing the potential threat of the attack. Therefore, we focus on generating high-quality adversarial examples by incorporating multi-granular perturbations. Achieving this objective involves tackling a combinatorial explosion problem, which requires identifying an optimal combination of perturbations across all possible levels of granularity, positions, and textual pieces. To address this challenge, we transform the multi-granular adversarial attack into a sequential decision-making process, where perturbations in the next attack step build on the perturbed document in the current attack step. Since the attack process can only access the final state without direct intermediate signals, we use reinforcement learning to perform multi-granular attacks. During the reinforcement learning process, two agents work cooperatively to identify multi-granular vulnerabilities as attack targets and organize perturbation candidates into a final perturbation sequence. Experimental results show that our attack method surpasses prevailing baselines in both attack effectiveness and imperceptibility.
- Abstract(参考訳): 敵のランキング攻撃は、脆弱性の探索の成功により注目され、その結果、ニューラルネットワークのランキングモデルの堅牢性を高めている。
従来の攻撃手法では、単一の粒度の摂動(例えば、単語や文のレベル)を標的文書に使用していた。
しかし、摂動を単一レベルの粒度に制限することは、敵の例の柔軟性を低下させ、攻撃の潜在的な脅威を減少させる可能性がある。
そこで我々は,多粒性摂動を取り入れた高品質な逆数例の生成に焦点をあてる。
この目的を達成するには、あらゆる可能な粒度、位置、およびテキスト部品の摂動の最適な組み合わせを特定する必要がある組合せ爆発問題に取り組む必要がある。
この課題に対処するため、我々は多粒対角攻撃をシーケンシャルな意思決定プロセスに変換し、次の攻撃ステップにおける摂動は現在の攻撃ステップにおける摂動ドキュメント上に構築する。
攻撃プロセスは直接中間信号無しで最終状態にしかアクセスできないため、強化学習を用いて複数粒状攻撃を行う。
強化学習の過程で、2つのエージェントが協力して、多粒性の脆弱性を攻撃目標として特定し、摂動候補を最終摂動シーケンスにまとめる。
実験結果から,本手法は攻撃の有効性と非受容性の両方において,一般的なベースラインを超えていることが示唆された。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - LFAA: Crafting Transferable Targeted Adversarial Examples with
Low-Frequency Perturbations [25.929492841042666]
本稿では,トランスファー可能な対象対向例を生成するための新しい手法を提案する。
画像の高周波成分の摂動にディープニューラルネットワークの脆弱性を利用する。
提案手法は最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-31T04:54:55Z) - Interpretability is a Kind of Safety: An Interpreter-based Ensemble for
Adversary Defense [28.398901783858005]
我々は,強固な防御敵に対するX-Ensembleと呼ばれるインタプリタベースのアンサンブルフレームワークを提案する。
X-エンサンブルはランダムフォレスト(RF)モデルを用いて、準検出器をアンサンブル検出器に結合し、敵のハイブリッド攻撃防御を行う。
論文 参考訳(メタデータ) (2023-04-14T04:32:06Z) - ExploreADV: Towards exploratory attack for Neural Networks [0.33302293148249124]
ExploreADVは、地域的および非受容的な攻撃をモデル化できる汎用的で柔軟な敵攻撃システムである。
提案システムは,入力のサブリージョンに着目し,知覚不能な摂動を探索し,攻撃に対する画素/領域の脆弱性を理解するための柔軟性をユーザに提供する。
論文 参考訳(メタデータ) (2023-01-01T07:17:03Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Saliency Diversified Deep Ensemble for Robustness to Adversaries [1.9659095632676094]
本研究は,深層アンサンブルのための新しい多様性促進学習手法を提案する。
この考え方は、アンサンブルのメンバーが一度にすべてのアンサンブルメンバーを標的にしないよう、サリエンシマップの多様性(SMD)を促進することである。
アンサンブル構成員間の移動性が低下し,最先端のアンサンブル防御よりも性能が向上したことを実証的に示す。
論文 参考訳(メタデータ) (2021-12-07T10:18:43Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。