論文の概要: Building Safer Autonomous Agents by Leveraging Risky Driving Behavior
Knowledge
- arxiv url: http://arxiv.org/abs/2103.10245v1
- Date: Tue, 16 Mar 2021 23:39:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 09:54:45.290242
- Title: Building Safer Autonomous Agents by Leveraging Risky Driving Behavior
Knowledge
- Title(参考訳): リスク駆動行動の知識を活用する自律エージェントの構築
- Authors: Ashish Rana, Avleen Malhi
- Abstract要約: 本研究は,モデルフリーな学習エージェントを作成するために,重交通や予期せぬランダムな行動を伴うリスクやすいシナリオの作成に重点を置いている。
ハイウェイ-envシミュレーションパッケージに新しいカスタムマルコフ決定プロセス(MDP)環境イテレーションを作成することにより、複数の自動運転シナリオを生成します。
リスクの高い運転シナリオを補足したモデル自由学習エージェントを訓練し,その性能をベースラインエージェントと比較する。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simulation environments are good for learning different driving tasks like
lane changing, parking or handling intersections etc. in an abstract manner.
However, these simulation environments often restrict themselves to operate
under conservative interactions behavior amongst different vehicles. But, as we
know that the real driving tasks often involves very high risk scenarios where
other drivers often don't behave in the expected sense. There can be many
reasons for this behavior like being tired or inexperienced. The simulation
environments doesn't take this information into account while training the
navigation agent. Therefore, in this study we especially focus on
systematically creating these risk prone scenarios with heavy traffic and
unexpected random behavior for creating better model-free learning agents. We
generate multiple autonomous driving scenarios by creating new custom Markov
Decision Process (MDP) environment iterations in highway-env simulation
package. The behavior policy is learnt by agents trained with the help from
deep reinforcement learning models. Our behavior policy is deliberated to
handle collisions and risky randomized driver behavior. We train model free
learning agents with supplement information of risk prone driving scenarios and
compare their performance with baseline agents. Finally, we casually measure
the impact of adding these perturbations in the training process to precisely
account for the performance improvement attained from utilizing the learnings
from these scenarios.
- Abstract(参考訳): シミュレーション環境は、車線変更や駐車、交差点の処理など、さまざまな運転タスクを学ぶのに適しています。
抽象的な方法で
しかし、これらのシミュレーション環境は、しばしば異なる車両間の保守的な相互作用行動下での操作に制限される。
しかし、私たちが知っているように、実際の運転タスクには、期待される意味で他のドライバーが振る舞わない非常に高いリスクシナリオが伴うことが多い。
疲れたり経験不足だったりするなど、この行動には多くの理由がある。
シミュレーション環境は、ナビゲーションエージェントのトレーニング中にこの情報を考慮していません。
そこで本研究では,モデルフリーな学習エージェントを作成するために,トラフィックの多さと予期せぬランダムな行動を伴うリスクシナリオを体系的に作成することに注力する。
highway-envシミュレーションパッケージに、新たなカスタムマルコフ決定プロセス(mdp)環境イテレーションを作成して、複数の自動運転シナリオを生成します。
行動方針は、深層強化学習モデルの助けを借りて訓練されたエージェントによって学習される。
私たちの行動方針は、衝突や危険なランダム化ドライバーの行動を扱うことを意図しています。
リスクの高い運転シナリオを補足したモデル自由学習エージェントを訓練し,その性能をベースラインエージェントと比較する。
最後に,これらの学習結果の活用によって得られた性能向上を正確に考慮し,学習プロセスにこれらの摂動を加えることが与える影響をカジュアルに測定する。
関連論文リスト
- SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Comprehensive Training and Evaluation on Deep Reinforcement Learning for
Automated Driving in Various Simulated Driving Maneuvers [0.4241054493737716]
本研究では、DQN(Deep Q-networks)とTRPO(Trust Region Policy Optimization)の2つのDRLアルゴリズムの実装、評価、比較を行う。
設計されたComplexRoads環境で訓練されたモデルは、他の運転操作にうまく適応でき、全体的な性能が期待できる。
論文 参考訳(メタデータ) (2023-06-20T11:41:01Z) - Risk-Aware Reward Shaping of Reinforcement Learning Agents for
Autonomous Driving [6.613838702441967]
本稿では,自律運転におけるRLエージェントのトレーニングとテスト性能を活用するために,リスク認識型報酬形成手法について検討する。
我々は、危険運転行動の探索と罰則を奨励する追加のリフォーム報酬項を提案する。
論文 参考訳(メタデータ) (2023-06-05T20:10:36Z) - Discrete Control in Real-World Driving Environments using Deep
Reinforcement Learning [2.467408627377504]
本研究では,現実の環境をゲーム環境に移行させる,現実の運転環境におけるフレームワーク(知覚,計画,制御)を紹介する。
実環境における離散制御を学習し,実行するために,既存の強化学習(RL)アルゴリズムを多エージェント設定で提案する。
論文 参考訳(メタデータ) (2022-11-29T04:24:03Z) - Exploring the trade off between human driving imitation and safety for
traffic simulation [0.34410212782758043]
運転方針の学習において,人間の運転の模倣と安全維持との間にはトレードオフが存在することを示す。
両目的を協調的に改善する多目的学習アルゴリズム(MOPPO)を提案する。
論文 参考訳(メタデータ) (2022-08-09T14:30:19Z) - Symphony: Learning Realistic and Diverse Agents for Autonomous Driving
Simulation [45.09881984441893]
本稿では,従来のポリシーと並列ビーム探索を組み合わせることで,リアリズムを大幅に改善するSymphonyを提案する。
Symphonyはこの問題を階層的なアプローチで解決し、エージェントの振る舞いをゴール生成とゴール条件に分解する。
実験により、交響楽団のエージェントは複数のベースラインよりも現実的で多様な行動を学ぶことが確認される。
論文 参考訳(メタデータ) (2022-05-06T13:21:40Z) - Causal Imitative Model for Autonomous Driving [85.78593682732836]
慣性および衝突問題に対処するための因果Imitative Model (CIM)を提案する。
CIMは因果モデルを明確に発見し、ポリシーのトレーニングに利用します。
実験の結果,本手法は慣性および衝突速度において従来の手法よりも優れていたことがわかった。
論文 参考訳(メタデータ) (2021-12-07T18:59:15Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。