論文の概要: Adversarial Attacks on Reinforcement Learning based Energy Management
Systems of Extended Range Electric Delivery Vehicles
- arxiv url: http://arxiv.org/abs/2006.00817v1
- Date: Mon, 1 Jun 2020 09:46:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 06:14:36.007805
- Title: Adversarial Attacks on Reinforcement Learning based Energy Management
Systems of Extended Range Electric Delivery Vehicles
- Title(参考訳): 拡張型電気輸送車両の強化学習に基づくエネルギー管理システムに対する敵対的攻撃
- Authors: Pengyue Wang, Yan Li, Shashi Shekhar and William F. Northrop
- Abstract要約: コンピュータビジョンの分野では、敵対的な例が研究されている。
敵対的な例は、ビデオゲームにおける深層強化学習(DRL)エージェントを誤解させる可能性がある。
DRLエージェントを現実の輸送システムに適用するには,サイバー攻撃の形での敵例を慎重に検討する必要がある。
- 参考スコア(独自算出の注目度): 3.927161292818792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples are firstly investigated in the area of computer vision:
by adding some carefully designed ''noise'' to the original input image, the
perturbed image that cannot be distinguished from the original one by human,
can fool a well-trained classifier easily. In recent years, researchers also
demonstrated that adversarial examples can mislead deep reinforcement learning
(DRL) agents on playing video games using image inputs with similar methods.
However, although DRL has been more and more popular in the area of intelligent
transportation systems, there is little research investigating the impacts of
adversarial attacks on them, especially for algorithms that do not take images
as inputs. In this work, we investigated several fast methods to generate
adversarial examples to significantly degrade the performance of a well-trained
DRL- based energy management system of an extended range electric delivery
vehicle. The perturbed inputs are low-dimensional state representations and
close to the original inputs quantified by different kinds of norms. Our work
shows that, to apply DRL agents on real-world transportation systems,
adversarial examples in the form of cyber-attack should be considered
carefully, especially for applications that may lead to serious safety issues.
- Abstract(参考訳): コンピュータビジョンの領域では、まず、逆の例が研究され、元の入力画像に注意深くデザインされた「ノイズ」を追加することにより、人間が区別できない摂動画像は、よく訓練された分類器を容易に騙すことができる。
近年、研究者らは、画像入力と類似した手法を用いて、ビデオゲームの深層強化学習(DRL)エージェントを誤認できることを示した。
しかし、DRLはインテリジェント交通システム分野ではますます普及しているが、特にイメージを入力として捉えないアルゴリズムに対する敵攻撃の影響についてはほとんど研究されていない。
本研究では, DRLをベースとした長距離電気自動車のエネルギー管理システムの性能を著しく低下させるために, 敵の例を高速に生成する手法について検討した。
摂動入力は低次元の状態表現であり、異なる種類のノルムで定量化された元の入力に近い。
我々の研究は、現実の輸送システムにdrlエージェントを適用するためには、サイバー攻撃の形の敵対的な例を慎重に検討すべきであることを示している。
関連論文リスト
- An Examination of Offline-Trained Encoders in Vision-Based Deep Reinforcement Learning for Autonomous Driving [0.0]
部分観測可能なマルコフ決定過程(POMDP)における深層強化学習(DRL)の課題に関する研究
我々の研究は、オフラインで訓練されたエンコーダを用いて、自己教師付き学習を通じて大規模なビデオデータセットを活用し、一般化可能な表現を学習する。
CARLAシミュレータにおいて,BDD100Kの運転映像から得られた特徴を直接転送することで,車線追従や衝突回避を実現することができることを示す。
論文 参考訳(メタデータ) (2024-09-02T14:16:23Z) - A Novel Bifurcation Method for Observation Perturbation Attacks on Reinforcement Learning Agents: Load Altering Attacks on a Cyber Physical Power System [1.7887848708497243]
本研究は,分岐層を用いたグループ差分ロジッツ損失を用いた連続制御のための新しい攻撃手法を提案する。
現実的なスマートエネルギー環境における強力な勾配に基づく攻撃の影響を実証する。
論文 参考訳(メタデータ) (2024-07-06T20:55:24Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Robustifying Reinforcement Learning Agents via Action Space Adversarial
Training [23.284452331353894]
機械学習(ML)を応用したサイバー物理システム(CPS)の採用は、現代社会の様々な分野に広まっている。
深層強化学習(DRL)の最近の研究は、様々なデータ駆動型意思決定と制御アプリケーションにおいてその利点を実証している。
動作空間摂動の影響を受けやすいDRLエージェントを, 対向訓練により, 同様の摂動に対して堅牢化できることを示す。
論文 参考訳(メタデータ) (2020-07-14T16:50:02Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。