論文の概要: Adversarial Attacks Against Deep Reinforcement Learning Framework in
Internet of Vehicles
- arxiv url: http://arxiv.org/abs/2108.00833v1
- Date: Mon, 2 Aug 2021 12:43:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:11:15.939372
- Title: Adversarial Attacks Against Deep Reinforcement Learning Framework in
Internet of Vehicles
- Title(参考訳): 車両インターネットにおける深層強化学習フレームワークに対する敵意攻撃
- Authors: Anum Talpur and Mohan Gurusamy
- Abstract要約: 我々は、深層強化学習(DRL)支援インターネット・オブ・ビークルズ(IoV)フレームワークに対するシビルベースの敵対的脅威に焦点を当てた。
DRLベースの動的サービス配置アプリケーションに対する異なる攻撃シナリオ下でのサービス遅延とリソース混雑の影響を解析する。
その結果、Sybilベースのデータ中毒攻撃は、敵対的な無健康なネットワークシナリオと比較して、パフォーマンスに大きな影響があることが示されている。
- 参考スコア(独自算出の注目度): 4.010371060637208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) has made incredible impacts and transformations in a
wide range of vehicular applications. As the use of ML in Internet of Vehicles
(IoV) continues to advance, adversarial threats and their impact have become an
important subject of research worth exploring. In this paper, we focus on
Sybil-based adversarial threats against a deep reinforcement learning
(DRL)-assisted IoV framework and more specifically, DRL-based dynamic service
placement in IoV. We carry out an experimental study with real vehicle
trajectories to analyze the impact on service delay and resource congestion
under different attack scenarios for the DRL-based dynamic service placement
application. We further investigate the impact of the proportion of
Sybil-attacked vehicles in the network. The results demonstrate that the
performance is significantly affected by Sybil-based data poisoning attacks
when compared to adversary-free healthy network scenario.
- Abstract(参考訳): 機械学習(ML)は、広範囲の車載アプリケーションにおいて、驚くべき影響と変革をもたらしています。
インターネット・オブ・ビークルズ(IoV)におけるMLの利用が進み続けており、敵の脅威とその影響は探究する価値のある研究対象となっている。
本稿では,深部強化学習(DRL)支援IoVフレームワークに対するSybilベースの敵対的脅威,具体的にはIoVにおけるDRLベースの動的サービス配置に着目した。
DRLをベースとした動的サービス配置アプリケーションにおいて,異なる攻撃シナリオ下でのサービス遅延とリソース混雑の影響を実車軌道で解析する実験を行った。
ネットワークにおけるシビル攻撃車両の割合の影響についても検討する。
その結果,sybilベースのデータ中毒攻撃は,悪意のない健全なネットワークシナリオと比較した場合,その性能に大きく影響することが示された。
関連論文リスト
- A Novel Bifurcation Method for Observation Perturbation Attacks on Reinforcement Learning Agents: Load Altering Attacks on a Cyber Physical Power System [1.7887848708497243]
本研究は,分岐層を用いたグループ差分ロジッツ損失を用いた連続制御のための新しい攻撃手法を提案する。
現実的なスマートエネルギー環境における強力な勾配に基づく攻撃の影響を実証する。
論文 参考訳(メタデータ) (2024-07-06T20:55:24Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - GFCL: A GRU-based Federated Continual Learning Framework against
Adversarial Attacks in IoV [3.3758186776249923]
深層強化学習(Deep Reinforcement Learning, DRL)は、IoT(Internet of Vehicles, IoV)アプリケーションで広く使われているML設計の1つである。
標準的なMLセキュリティ技術は、アルゴリズムが環境との継続的な相互作用を通じてシーケンシャルな意思決定を解決することを学習するDRLでは有効ではない。
本稿では,GRU(Gated Recurrent Unit)に基づくGFCL(Federated Continuousal Learning)異常検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-23T06:56:37Z) - A Transfer Learning and Optimized CNN Based Intrusion Detection System
for Internet of Vehicles [10.350337750192997]
本稿では,インターネット・オブ・ビークルズ(IoV)システムにおいて,トランスファー学習とアンサンブル学習に基づくIDSを提案する。
提案されたIDSは、2つの公開ベンチマークIoVセキュリティデータセットで99.25%以上の検出率とF1スコアを示した。
本研究は車内ネットワークおよび車外ネットワークにおけるサイバー攻撃検出におけるIDSの有効性を示す。
論文 参考訳(メタデータ) (2022-01-27T21:24:09Z) - Attacking Deep Reinforcement Learning-Based Traffic Signal Control
Systems with Colluding Vehicles [4.2455052426413085]
本稿では,DRLをベースとしたATCSに対して,車両群が連携して偽情報を送信できる,新たな課題を定式化する。
CollusionVehは、道路状況エンコーダ、車両インタプリタ、通信機構で構成される汎用的で効果的な車両処理フレームワークである。
この研究結果は、ATCSの信頼性と堅牢性を改善し、スマートモビリティシステムを保護するのに役立つだろう。
論文 参考訳(メタデータ) (2021-11-04T13:10:33Z) - Robust Reinforcement Learning on State Observations with Learned Optimal
Adversary [86.0846119254031]
逆摂動状態観測による強化学習の堅牢性について検討した。
固定されたエージェントポリシーでは、摂動状態の観測に最適な敵を見つけることができる。
DRLの設定では、これは以前のものよりもはるかに強い学習された敵対を介してRLエージェントに新しい経験的敵対攻撃につながります。
論文 参考訳(メタデータ) (2021-01-21T05:38:52Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。