論文の概要: Learning to Attack: A Bandit Approach to Adversarial Context Poisoning
- arxiv url: http://arxiv.org/abs/2603.00567v1
- Date: Sat, 28 Feb 2026 09:34:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.263733
- Title: Learning to Attack: A Bandit Approach to Adversarial Context Poisoning
- Title(参考訳): 攻撃への学習 : 敵対的文脈中毒に対する帯域的アプローチ
- Authors: Ray Telikani, Amir H. Gandomi,
- Abstract要約: 我々は、連続武器の盗聴問題としてコンテキスト中毒を定式化するブラックボックス適応攻撃であるAdvBanditを紹介する。
攻撃者は被害者の内部パラメータ、報酬関数、勾配情報へのアクセスを必要としない。
攻撃回数において,サブリニア攻撃者の後悔と被害者の後悔に対する限界を低く抑えることを含む理論的保証を提供する。
- 参考スコア(独自算出の注目度): 5.82233544807519
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural contextual bandits are vulnerable to adversarial attacks, where subtle perturbations to rewards, actions, or contexts induce suboptimal decisions. We introduce AdvBandit, a black-box adaptive attack that formulates context poisoning as a continuous-armed bandit problem, enabling the attacker to jointly learn and exploit the victim's evolving policy. The attacker requires no access to the victim's internal parameters, reward function, or gradient information; instead, it constructs a surrogate model using a maximum-entropy inverse reinforcement learning module from observed context-action pairs and optimizes perturbations against this surrogate using projected gradient descent. An upper confidence bound-aware Gaussian process guides arm selection. An attack-budget control mechanism is also introduced to limit detection risk and overhead. We provide theoretical guarantees, including sublinear attacker regret and lower bounds on victim regret linear in the number of attacks. Experiments on three real-world datasets (Yelp, MovieLens, and Disin) against various victim contextual bandits demonstrate that our attack model achieves higher cumulative victim regret than state-of-the-art baselines.
- Abstract(参考訳): ニューラル・コンテクチュアル・バンディットは敵の攻撃に対して脆弱であり、報酬、行動、文脈に対する微妙な摂動は準最適決定を引き起こす。
我々は、連続武器による盗聴問題としてコンテキスト中毒を定式化するブラックボックス適応攻撃であるAdvBanditを導入し、攻撃者が被害者の進化するポリシーを共同で学習し、活用できるようにする。
攻撃者は、被害者の内部パラメータ、報酬関数、勾配情報へのアクセスを必要としない。代わりに、観測されたコンテキスト-アクションペアから最大エントロピー逆強化学習モジュールを使用してサロゲートモデルを構築し、投影された勾配勾配勾配を使ってこのサロゲートに対する摂動を最適化する。
高信頼な有界ガウス過程は腕の選択を導く。
検出リスクとオーバーヘッドを制限するために、アタック予算制御機構も導入されている。
攻撃回数において,サブリニア攻撃者の後悔と被害者の後悔に対する限界を低く抑えることを含む理論的保証を提供する。
実世界の3つのデータセット(Yelp、MovieLens、Disin)と、さまざまな被害者のコンテキスト的盗賊に対する実験により、我々の攻撃モデルは最先端のベースラインよりも高い累積的犠牲者後悔を達成していることが示された。
関連論文リスト
- Potent but Stealthy: Rethink Profile Pollution against Sequential Recommendation via Bi-level Constrained Reinforcement Paradigm [44.622203626828345]
対話シーケンスを通じて動的ユーザインテントを利用するシークエンシャルリコメンダは、敵攻撃に対して脆弱である。
本報告では, ユーザインタラクションを微妙に汚染し, ターゲットの誤予測を誘発するプロファイル汚染攻撃について述べる。
本稿では,2段階の最適化フレームワークを多方向強化学習と相乗化して,対向効果とステルスネスのバランスをとる制約付き強化駆動攻撃 CREAT を提案する。
論文 参考訳(メタデータ) (2025-11-12T15:00:52Z) - Provably Invincible Adversarial Attacks on Reinforcement Learning Systems: A Rate-Distortion Information-Theoretic Approach [22.90190828541341]
マルコフ決定プロセス(MDP)のための強化学習(RL)は多くのセキュリティ関連アプリケーションで登場している。
本稿では,RLに対する「不可逆的」あるいは「不可逆的」な逆攻撃を提案する。
論文 参考訳(メタデータ) (2025-10-15T17:48:19Z) - Robust Deep Reinforcement Learning against Adversarial Behavior Manipulation [10.411820336052784]
本研究では,強化学習に対する行動目標攻撃とその対策について検討する。
われわれの知る限りでは、行動目標攻撃に特化して設計された最初の防衛戦略である。
論文 参考訳(メタデータ) (2024-06-06T08:49:51Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Adversarial Attacks on Adversarial Bandits [10.891819703383408]
攻撃者は,任意の非相対的帯域幅アルゴリズムをミスリードして,準最適目標アームを選択することができることを示す。
この結果は、現実世界の盗賊ベースのシステムにおける重要なセキュリティ上の懸念を意味する。
論文 参考訳(メタデータ) (2023-01-30T00:51:39Z) - Generalizable Black-Box Adversarial Attack with Meta Learning [54.196613395045595]
ブラックボックス攻撃では、ターゲットモデルのパラメータが不明であり、攻撃者はクエリのフィードバックに基づいて、クエリの予算に基づいて摂動を成功させることを目指している。
本稿では,実例レベルの逆転可能性という,過去の攻撃に対するフィードバック情報を活用することを提案する。
この2種類の逆転送性を持つフレームワークは,市販のクエリベースのアタック手法と自然に組み合わせて性能を向上させることができる。
論文 参考訳(メタデータ) (2023-01-01T07:24:12Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - When Are Linear Stochastic Bandits Attackable? [47.25702824488642]
本稿では,$k$のリニアバンディット環境の攻撃性について検討する。
本稿では,LinUCBとロバスト位相除去に対する2段階攻撃法を提案する。
論文 参考訳(メタデータ) (2021-10-18T04:12:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。