論文の概要: Provably Efficient Black-Box Action Poisoning Attacks Against
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2110.04471v1
- Date: Sat, 9 Oct 2021 06:41:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 03:43:24.431431
- Title: Provably Efficient Black-Box Action Poisoning Attacks Against
Reinforcement Learning
- Title(参考訳): 強化学習に対する効果的なブラックボックス行動中毒攻撃
- Authors: Guanlin Liu and Lifeng Lai
- Abstract要約: 我々は,エージェントが選択したアクションシグナルを敵が変更できる行動中毒攻撃という新しい種類の攻撃を導入する。
既存の攻撃モデルと比較して、提案した行動中毒攻撃モデルにおける攻撃者の能力はより制限されている。
ブラックボックス設定においても,提案手法は攻撃者が選択したポリシーに従って,UCB-Hエージェントが行動を選択することを強制することができることを示す。
- 参考スコア(独自算出の注目度): 41.1063033715314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the broad range of applications of reinforcement learning (RL),
understanding the effects of adversarial attacks against RL model is essential
for the safe applications of this model. Prior works on adversarial attacks
against RL mainly focus on either observation poisoning attacks or environment
poisoning attacks. In this paper, we introduce a new class of attacks named
action poisoning attacks, where an adversary can change the action signal
selected by the agent. Compared with existing attack models, the attacker's
ability in the proposed action poisoning attack model is more restricted, and
hence the attack model is more practical. We study the action poisoning attack
in both white-box and black-box settings. We introduce an adaptive attack
scheme called LCB-H, which works for most RL agents in the black-box setting.
We prove that the LCB-H attack can force any efficient RL agent, whose dynamic
regret scales sublinearly with the total number of steps taken, to choose
actions according to a policy selected by the attacker very frequently, with
only sublinear cost. In addition, we apply LCB-H attack against a popular
model-free RL algorithm: UCB-H. We show that, even in the black-box setting, by
spending only logarithm cost, the proposed LCB-H attack scheme can force the
UCB-H agent to choose actions according to the policy selected by the attacker
very frequently.
- Abstract(参考訳): 強化学習(RL)の幅広い応用により、RLモデルに対する敵攻撃の影響を理解することが、このモデルの安全な適用に不可欠である。
以前のRLに対する敵対的攻撃は、主に観察的中毒攻撃または環境的中毒攻撃に焦点を当てていた。
本稿では,エージェントが選択したアクションシグナルを敵が変更できる行動中毒攻撃という,新たなタイプの攻撃手法を提案する。
既存の攻撃モデルと比較して、提案した行動中毒攻撃モデルにおける攻撃者の能力はより制限されており、攻撃モデルはより実用的である。
ホワイトボックスおよびブラックボックス設定の両方において,アクション中毒攻撃について検討した。
ブラックボックス設定において,ほとんどのRLエージェントに対して適応攻撃方式 LCB-H を導入する。
lcb-h攻撃は, 動的後悔が全ステップ数と部分線形にスケールする効率的なrlエージェントに対して, 攻撃者が選択した方針に従って, サブリニアコストのみで行動選択を強制できることを実証する。
さらに,一般的なモデルフリーRLアルゴリズムである UCB-H に対して LCB-H 攻撃を適用した。
提案するlcb-h攻撃手法は,ブラックボックス設定でも対数コストのみを消費することで,攻撃者が選択した方針に従って行動選択をucb-hエージェントに強いることができることを示す。
関連論文リスト
- Learning diverse attacks on large language models for robust red-teaming and safety tuning [126.32539952157083]
レッドチーム、あるいは有害な応答を誘発するプロンプトの特定は、大きな言語モデルの安全なデプロイを保証するための重要なステップである。
新規性と多様性を優先する明確な規則化であっても、既存のアプローチはモード崩壊または効果的な攻撃を発生させることができないことを示す。
我々は,GFlowNetの微調整と二次平滑化フェーズを用いて,多種多様な効果的な攻撃プロンプトを生成するために攻撃モデルを訓練することを提案する。
論文 参考訳(メタデータ) (2024-05-28T19:16:17Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Universal Black-Box Reward Poisoning Attack against Offline Reinforcement Learning [4.629358641630161]
ニューラルネットワークを用いた汎用オフライン強化学習に対する汎用的ブラックボックス型報酬中毒攻撃の問題点について検討する。
一般オフラインRL設定において,最初の汎用ブラックボックス報酬中毒攻撃を提案する。
論文 参考訳(メタデータ) (2024-02-15T04:08:49Z) - Efficient Adversarial Attacks on Online Multi-agent Reinforcement
Learning [45.408568528354216]
対人攻撃がマルチエージェント強化学習(MARL)に及ぼす影響について検討する。
検討された設定では、エージェントがそれらを受け取る前に報酬を変更したり、環境がそれを受け取る前にアクションを操作することができる攻撃者がいる。
この混合攻撃戦略は,攻撃者が基礎となる環境やエージェントのアルゴリズムに関する事前情報を持っていなくても,MARLエージェントを効果的に攻撃することができることを示す。
論文 参考訳(メタデータ) (2023-07-15T00:38:55Z) - Implicit Poisoning Attacks in Two-Agent Reinforcement Learning:
Adversarial Policies for Training-Time Attacks [21.97069271045167]
標的毒攻撃では、攻撃者はエージェントと環境の相互作用を操作して、ターゲットポリシーと呼ばれる利害政策を採用するように強制する。
本研究では,攻撃者がエージェントの有効環境を暗黙的に毒殺する2エージェント環境での標的毒殺攻撃について,仲間の方針を変更して検討した。
最適な攻撃を設計するための最適化フレームワークを開発し、攻撃のコストは、ピアエージェントが想定するデフォルトポリシーからどの程度逸脱するかを測定する。
論文 参考訳(メタデータ) (2023-02-27T14:52:15Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Adaptive Reward-Poisoning Attacks against Reinforcement Learning [43.07944714475278]
強化学習に対する報奨攻撃では、攻撃者は各ステップで環境報酬$r_t$を$r_t+delta_t$に摂動することができる。
穏やかな条件下では、アダプティブアタックは状態空間サイズ$|S|$のステップで悪質なポリシーを達成できることを示す。
また,攻撃者は最先端の深層RL技術を用いて効果的な報酬中毒攻撃を発見できることを示す。
論文 参考訳(メタデータ) (2020-03-27T19:46:23Z) - Action-Manipulation Attacks Against Stochastic Bandits: Attacks and
Defense [45.408568528354216]
我々はアクション・マニピュレーション・アタックと呼ばれる新しいタイプの攻撃を導入する。
この攻撃では、相手が選択したアクション信号を変更することができる。
このような攻撃に対して防御するために,アクション操作攻撃に対して堅牢な新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-02-19T04:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。