論文の概要: Implicit Poisoning Attacks in Two-Agent Reinforcement Learning:
Adversarial Policies for Training-Time Attacks
- arxiv url: http://arxiv.org/abs/2302.13851v1
- Date: Mon, 27 Feb 2023 14:52:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 15:10:35.153193
- Title: Implicit Poisoning Attacks in Two-Agent Reinforcement Learning:
Adversarial Policies for Training-Time Attacks
- Title(参考訳): 2エージェント強化学習における暗黙の毒攻撃--訓練時間攻撃に対する敵対政策
- Authors: Mohammad Mohammadi, Jonathan N\"other, Debmalya Mandal, Adish Singla,
Goran Radanovic
- Abstract要約: 標的毒攻撃では、攻撃者はエージェントと環境の相互作用を操作して、ターゲットポリシーと呼ばれる利害政策を採用するように強制する。
本研究では,攻撃者がエージェントの有効環境を暗黙的に毒殺する2エージェント環境での標的毒殺攻撃について,仲間の方針を変更して検討した。
最適な攻撃を設計するための最適化フレームワークを開発し、攻撃のコストは、ピアエージェントが想定するデフォルトポリシーからどの程度逸脱するかを測定する。
- 参考スコア(独自算出の注目度): 21.97069271045167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In targeted poisoning attacks, an attacker manipulates an agent-environment
interaction to force the agent into adopting a policy of interest, called
target policy. Prior work has primarily focused on attacks that modify standard
MDP primitives, such as rewards or transitions. In this paper, we study
targeted poisoning attacks in a two-agent setting where an attacker implicitly
poisons the effective environment of one of the agents by modifying the policy
of its peer. We develop an optimization framework for designing optimal
attacks, where the cost of the attack measures how much the solution deviates
from the assumed default policy of the peer agent. We further study the
computational properties of this optimization framework. Focusing on a tabular
setting, we show that in contrast to poisoning attacks based on MDP primitives
(transitions and (unbounded) rewards), which are always feasible, it is NP-hard
to determine the feasibility of implicit poisoning attacks. We provide
characterization results that establish sufficient conditions for the
feasibility of the attack problem, as well as an upper and a lower bound on the
optimal cost of the attack. We propose two algorithmic approaches for finding
an optimal adversarial policy: a model-based approach with tabular policies and
a model-free approach with parametric/neural policies. We showcase the efficacy
of the proposed algorithms through experiments.
- Abstract(参考訳): 標的中毒攻撃では、攻撃者はエージェントと環境の相互作用を操作し、ターゲットポリシーと呼ばれる利害ポリシーを採用するようエージェントを強制する。
先行研究は主に、報酬やトランジションなどのmdpプリミティブを変更する攻撃に焦点を当てている。
本稿では,攻撃者が仲間の方針を変更して,エージェントの有効環境に暗黙的に毒を盛る二剤セットにおける標的中毒攻撃について検討する。
そこで我々は,最適な攻撃設計のための最適化フレームワークを開発した。攻撃のコストは,ピアエージェントの既定ポリシーからソリューションがどの程度逸脱しているかを測定する。
この最適化フレームワークの計算特性についてさらに検討する。
表形式では,MDPプリミティブに基づく毒殺攻撃(移行と(非有界)報酬)が常に実現可能であるのに対して,暗黙的な毒殺攻撃の可能性を決定することはNP-hardであることを示す。
本報告では,攻撃問題の実現可能性に関する十分な条件を確立するとともに,攻撃の最適コストに対する上限値と下限値を求める。
そこで本稿では, 表型ポリシを用いたモデルベースアプローチと, パラメトリック/ニューラルポリシを用いたモデルフリーアプローチの2つのアルゴリズム的アプローチを提案する。
提案手法の有効性を実験により示す。
関連論文リスト
- Securing Recommender System via Cooperative Training [78.97620275467733]
本稿では,データを相互に強化する3つの協調モデルを用いたTCD(Triple Cooperative Defense)を提案する。
既存の攻撃が二段階最適化と効率のバランスをとるのに苦労していることを考えると、リコメンダシステムにおける毒殺攻撃を再考する。
我々はゲームベースのコトレーニングアタック(GCoAttack)を提案し,提案したCoAttackとTCDをゲーム理論のプロセスとする。
論文 参考訳(メタデータ) (2024-01-23T12:07:20Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Optimal Cost Constrained Adversarial Attacks For Multiple Agent Systems [6.69087470775851]
分散攻撃エージェントを用いた最適な敵エージェント対エージェント攻撃を行うという問題を定式化する。
そこで本稿では,静的制約付き攻撃-リソース割り当て最適化と動的プログラミングの段階間最適化を組み合わせた最適手法を提案する。
以上の結果から,攻撃エージェントが受ける報酬を大幅に削減できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-01T21:28:02Z) - Toward Evaluating Robustness of Reinforcement Learning with Adversarial Policy [32.1138935956272]
強化学習エージェントは、デプロイ中に回避攻撃を受けやすい。
本稿では,効率的なブラックボックス対応政策学習のための本質的なモチベーション付き適応政策(IMAP)を提案する。
論文 参考訳(メタデータ) (2023-05-04T07:24:12Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Attacking and Defending Deep Reinforcement Learning Policies [3.6985039575807246]
本研究では, DRL ポリシーのロバストな最適化の観点から, 敵攻撃に対するロバスト性について検討する。
本稿では,環境との相互作用を伴わずにポリシーの戻りを最小化しようとする欲求攻撃アルゴリズムと,最大限の形式で敵の訓練を行う防衛アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-16T12:47:54Z) - Poisoning Attack against Estimating from Pairwise Comparisons [140.9033911097995]
攻撃者はランクリストを操作するための強い動機と動機を持っている。
ペアワイズランキングアルゴリズムに対するデータ中毒攻撃は、ローダとアタッカーの間の動的および静的ゲームとして形式化することができる。
本稿では、2つの効率的な毒殺攻撃アルゴリズムを提案し、関連する理論的保証を確立する。
論文 参考訳(メタデータ) (2021-07-05T08:16:01Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Policy Teaching in Reinforcement Learning via Environment Poisoning
Attacks [33.41280432984183]
本研究では,攻撃者が学習環境を害し,攻撃者が選択したターゲットポリシーの実行を強制する強化学習に対するセキュリティ上の脅威について検討する。
被害者として、無限水平問題設定における報酬を最大化するポリシーを見つけることを目的としたRLエージェントを考える。
論文 参考訳(メタデータ) (2020-11-21T16:54:45Z) - Revisiting Membership Inference Under Realistic Assumptions [87.13552321332988]
従来研究でよく用いられていた仮定のいくつかが緩和された環境での会員推定について検討する。
この設定は、研究者が通常考慮するバランスのとれた事前設定よりも現実的である。
我々は、トレーニングセットメンバーに対応する入力が損失関数の局所最小値に近いという直感に基づく新しい推論攻撃を開発する。
論文 参考訳(メタデータ) (2020-05-21T20:17:42Z) - Policy Teaching via Environment Poisoning: Training-time Adversarial
Attacks against Reinforcement Learning [33.41280432984183]
本研究では,攻撃者が学習環境を害してエージェントに目標ポリシーの実行を強制する強化学習に対するセキュリティ上の脅威について検討する。
被害者として、未報告の無限水平問題設定における平均報酬を最大化するポリシーを見つけることを目的としたRLエージェントを考える。
論文 参考訳(メタデータ) (2020-03-28T23:22:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。