論文の概要: Optimal Actuator Attacks on Autonomous Vehicles Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2502.07839v1
- Date: Tue, 11 Feb 2025 03:01:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 18:10:00.714787
- Title: Optimal Actuator Attacks on Autonomous Vehicles Using Reinforcement Learning
- Title(参考訳): 強化学習を用いた自動車の最適アクチュエータ攻撃
- Authors: Pengyu Wang, Jialu Li, Ling Shi,
- Abstract要約: AVアクチュエータに対する最適なステルス完全性攻撃を設計するための強化学習(RL)に基づくアプローチを提案する。
また、このような攻撃に対処するために、最先端のRLベースのセキュアコントローラの限界を分析する。
- 参考スコア(独自算出の注目度): 11.836584342902492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing prevalence of autonomous vehicles (AVs), their vulnerability to various types of attacks has grown, presenting significant security challenges. In this paper, we propose a reinforcement learning (RL)-based approach for designing optimal stealthy integrity attacks on AV actuators. We also analyze the limitations of state-of-the-art RL-based secure controllers developed to counter such attacks. Through extensive simulation experiments, we demonstrate the effectiveness and efficiency of our proposed method.
- Abstract(参考訳): 自動運転車(AV)の普及に伴い、さまざまな種類の攻撃に対する脆弱性が増加し、重大なセキュリティ上の課題が浮かび上がっている。
本稿では,AVアクチュエータに対する最適ステルス完全性攻撃を設計するための強化学習(RL)に基づくアプローチを提案する。
我々はまた、このような攻撃に対抗するために開発された最先端のRLベースのセキュアコントローラの限界を分析する。
シミュレーション実験により,提案手法の有効性と有効性を示す。
関連論文リスト
- AED: Automatic Discovery of Effective and Diverse Vulnerabilities for Autonomous Driving Policy with Large Language Models [7.923448458349885]
本稿では,大規模言語モデル(LLM)を用いて,自律運転政策における効果的かつ多様な脆弱性を自動的に発見するフレームワークを提案する。
実験によると、AEDは専門家が設計した報酬と比較して、幅広い脆弱性と攻撃の成功率を達成する。
論文 参考訳(メタデータ) (2025-03-24T14:59:17Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - Less is More: A Stealthy and Efficient Adversarial Attack Method for DRL-based Autonomous Driving Policies [2.9965913883475137]
DRLに基づく自律運転ポリシーに対するステルスで効率的な敵攻撃手法を提案する。
我々は、ドメイン知識のない重要な瞬間に攻撃するための最適なポリシーを学ぶために、敵を訓練する。
本手法は3回の攻撃で90%以上の衝突率を達成する。
論文 参考訳(メタデータ) (2024-12-04T06:11:09Z) - Intercepting Unauthorized Aerial Robots in Controlled Airspace Using Reinforcement Learning [2.519319150166215]
制御空域における無人航空機(UAV)の増殖は重大なリスクをもたらす。
この作業は、強化学習(RL)を用いることで、そのような脅威を管理することのできる堅牢で適応的なシステムの必要性に対処する。
固定翼UAV追跡エージェントの訓練にRLを用いる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-09T14:45:47Z) - Adversarial Markov Games: On Adaptive Decision-Based Attacks and Defenses [21.759075171536388]
攻撃だけでなく、防御も、相互作用を通じてお互いから学び合うことによって、どのような恩恵を受けるかを示します。
我々は、システムがどのように反応するかを制御するアクティブディフェンスが、意思決定ベースの攻撃に直面した際のモデルの強化に必須の補完であることを示した。
実世界で展開されるMLベースのシステムの堅牢性を確保するための効果的な戦略を策定する。
論文 参考訳(メタデータ) (2023-12-20T21:24:52Z) - Embodied Laser Attack:Leveraging Scene Priors to Achieve Agent-based Robust Non-contact Attacks [13.726534285661717]
本稿では,非接触レーザー攻撃を動的に調整する新しい枠組みであるEmbodied Laser Attack (ELA)を紹介する。
認識モジュールのために,ERAは交通シーンの本質的な事前知識に基づいて,局所的な視点変換ネットワークを革新的に開発してきた。
決定と制御モジュールのために、ERAは時間を要するアルゴリズムを採用する代わりに、データ駆動の強化学習で攻撃エージェントを訓練する。
論文 参考訳(メタデータ) (2023-12-15T06:16:17Z) - Runtime Stealthy Perception Attacks against DNN-based Adaptive Cruise Control Systems [8.561553195784017]
本稿では,実行時認識攻撃下での深層ニューラルネットワークを用いたACCシステムのセキュリティ評価を行う。
攻撃を誘発する最も重要な時間を選択するための文脈認識戦略を提案する。
提案攻撃の有効性を,実車,公用運転データセット,現実的なシミュレーションプラットフォームを用いて評価した。
論文 参考訳(メタデータ) (2023-07-18T03:12:03Z) - Self-Improving Safety Performance of Reinforcement Learning Based
Driving with Black-Box Verification Algorithms [0.0]
本稿では,強化学習(RL)に基づく自律運転(AD)エージェントの安全性向上を目的とした,自己改善型人工知能システムを提案する。
提案手法は,RLベースの適応クルーズ制御(ACC)アプリケーションにおいて,行動決定の安全性上の障害を効果的に発見する。
論文 参考訳(メタデータ) (2022-10-29T11:34:17Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。