論文の概要: Observed Adversaries in Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.06787v1
- Date: Thu, 13 Oct 2022 06:54:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 17:35:45.249150
- Title: Observed Adversaries in Deep Reinforcement Learning
- Title(参考訳): 深層強化学習における敵の観測
- Authors: Eugene Lim and Harold Soh
- Abstract要約: 本研究では, 環境制約下で観測された敵が自然, 敵対的な観察を行う場合, 深い強化学習は敵の攻撃に影響を受けやすいことを示す。
この攻撃は、悪意のある攻撃者が標的の被害者にアクセスせずに敵を訓練することを可能にする可能性がある。
- 参考スコア(独自算出の注目度): 18.450245088463213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we point out the problem of observed adversaries for deep
policies. Specifically, recent work has shown that deep reinforcement learning
is susceptible to adversarial attacks where an observed adversary acts under
environmental constraints to invoke natural but adversarial observations. This
setting is particularly relevant for HRI since HRI-related robots are expected
to perform their tasks around and with other agents. In this work, we
demonstrate that this effect persists even with low-dimensional observations.
We further show that these adversarial attacks transfer across victims, which
potentially allows malicious attackers to train an adversary without access to
the target victim.
- Abstract(参考訳): 本研究は, 深層政策における観測敵の問題点を指摘する。
特に,近年の研究では,観察された敵が環境制約の下で行動し,自然・敵対的な観察を行う場合,深い強化学習が敵の攻撃に影響されることが示されている。
この設定は、HRI関連ロボットが他のエージェントとタスクを実行することが期待されているため、HRIに特に関係している。
本研究では,低次元の観測でもこの効果が持続することを示す。
さらに、悪意のある攻撃者が標的の被害者にアクセスせずに敵を訓練できるような、被害者間の敵攻撃が伝達されることも示している。
関連論文リスト
- Adversarial Inception for Bounded Backdoor Poisoning in Deep Reinforcement Learning [16.350898218047405]
本稿では,Deep Reinforcement Learning (DRL)アルゴリズムに対する新たなバックドア攻撃法を提案する。
これらの攻撃は、エージェントの報酬を最小限に変更しながら、アートパフォーマンスの状態を達成します。
次に、拘束された報酬制約の下での事前攻撃を著しく上回るオンラインアタックを考案する。
論文 参考訳(メタデータ) (2024-10-17T19:50:28Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Defending Observation Attacks in Deep Reinforcement Learning via
Detection and Denoising [3.2023814100005907]
外部環境が管理する観測空間における摂動として現れる攻撃は、政策性能を低下させる。
これらの攻撃を防御するために,検出・復号化スキーマを用いた新しい防衛戦略を提案する。
我々のソリューションは攻撃中の環境でのサンプリングデータを必要としないため、トレーニング中のリスクを大幅に低減する。
論文 参考訳(メタデータ) (2022-06-14T22:28:30Z) - Targeted Attack on Deep RL-based Autonomous Driving with Learned Visual
Patterns [18.694795507945603]
近年の研究では、敵の攻撃に対する深い強化学習を通じて学んだコントロールポリシーの脆弱性が実証されている。
本研究では, 物理的対象物に配置した視覚的学習パターンを用いて, 標的攻撃の実現可能性について検討する。
論文 参考訳(メタデータ) (2021-09-16T04:59:06Z) - Understanding Adversarial Attacks on Observations in Deep Reinforcement
Learning [32.12283927682007]
深層強化学習モデルは、観測を操作することで被害者の総報酬を減少させる敵攻撃に対して脆弱である。
関数空間における逆攻撃の問題を修正し、以前の勾配に基づく攻撃をいくつかの部分空間に分割する。
第一段階では、環境をハックして偽装ポリシーを訓練し、最下位の報酬にルーティングするトラジェクトリのセットを発見する。
本手法は,攻撃エージェントの性能に対して,既存の手法よりも厳密な理論上界を提供する。
論文 参考訳(メタデータ) (2021-06-30T07:41:51Z) - Adversarial Training for Deep Learning-based Intrusion Detection Systems [0.0]
本稿では,敵対攻撃が深層学習に基づく侵入検出に及ぼす影響について検討する。
十分な歪みを伴って、敵の例は検出器を誤解させ、敵の訓練を用いることで侵入検知の堅牢性を向上させることができる。
論文 参考訳(メタデータ) (2021-04-20T09:36:24Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - AdvMind: Inferring Adversary Intent of Black-Box Attacks [66.19339307119232]
本稿では,ブラックボックス攻撃の敵意を頑健に推定する新たな評価モデルであるAdvMindを提案する。
平均的なAdvMindは、3回未満のクエリバッチを観察した後、75%以上の精度で敵の意図を検出する。
論文 参考訳(メタデータ) (2020-06-16T22:04:31Z) - Spatiotemporal Attacks for Embodied Agents [119.43832001301041]
我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
論文 参考訳(メタデータ) (2020-05-19T01:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。