論文の概要: SafetyNet: Safe planning for real-world self-driving vehicles using
machine-learned policies
- arxiv url: http://arxiv.org/abs/2109.13602v1
- Date: Tue, 28 Sep 2021 10:23:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 22:05:16.716523
- Title: SafetyNet: Safe planning for real-world self-driving vehicles using
machine-learned policies
- Title(参考訳): safetynet: 機械学習による実世界の自動運転車の安全計画
- Authors: Matt Vitelli, Yan Chang, Yawei Ye, Maciej Wo{\l}czyk, B{\l}a\.zej
Osi\'nski, Moritz Niendorf, Hugo Grimmett, Qiangui Huang, Ashesh Jain, Peter
Ondruska
- Abstract要約: 我々は、人間のデモから訓練された自動運転車を完全に制御するための最初の安全システムを示す。
このアプローチでは、MLプランナの判断に対する健全性チェックを行う、シンプルだが効果的なルールベースのフォールバックレイヤを使用します。
これにより、MLを活用することで、複雑な状況に対処しつつ、安全性を確保しながら、MLプランナのみの衝突を95%削減することが可能になります。
- 参考スコア(独自算出の注目度): 5.6405425323717004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we present the first safe system for full control of
self-driving vehicles trained from human demonstrations and deployed in
challenging, real-world, urban environments. Current industry-standard
solutions use rule-based systems for planning. Although they perform reasonably
well in common scenarios, the engineering complexity renders this approach
incompatible with human-level performance. On the other hand, the performance
of machine-learned (ML) planning solutions can be improved by simply adding
more exemplar data. However, ML methods cannot offer safety guarantees and
sometimes behave unpredictably. To combat this, our approach uses a simple yet
effective rule-based fallback layer that performs sanity checks on an ML
planner's decisions (e.g. avoiding collision, assuring physical feasibility).
This allows us to leverage ML to handle complex situations while still assuring
the safety, reducing ML planner-only collisions by 95%. We train our ML planner
on 300 hours of expert driving demonstrations using imitation learning and
deploy it along with the fallback layer in downtown San Francisco, where it
takes complete control of a real vehicle and navigates a wide variety of
challenging urban driving scenarios.
- Abstract(参考訳): 本稿では,人間のデモから訓練し,挑戦的かつ現実的な都市環境に展開する自動運転車の完全制御のための,最初の安全システムを提案する。
現在の業界標準ソリューションは、計画にルールベースのシステムを使用する。
一般的なシナリオでは合理的に動作しますが、エンジニアリングの複雑さは、このアプローチを人間レベルのパフォーマンスとは相容れないものにします。
一方、機械学習(ML)計画ソリューションの性能は、より優れたデータを追加するだけで改善できる。
しかし、MLメソッドは安全保証を提供しておらず、時には予測不能に振る舞う。
これに対処するために、このアプローチでは、mlプランナーの決定(例えば衝突の回避、物理的実現可能性の確保など)を健全性チェックする、シンプルで効果的なルールベースのフォールバック層を使用します。
これにより、MLを活用することで、複雑な状況に対処しつつ、安全性を確保しながら、MLプランナのみの衝突を95%削減することが可能になります。
本誌はMLプランナーを300時間のエキスパート運転デモで訓練し、模擬学習を使ってそれをサンフランシスコのダウンタウンのフォールバック層にデプロイし、実際の車両を完全にコントロールし、さまざまな挑戦的な都市運転シナリオをナビゲートする。
関連論文リスト
- Safe and Generalized end-to-end Autonomous Driving System with Reinforcement Learning and Demonstrations [15.853453814447471]
インテリジェントな運転システムは、現在の環境と車両状態に基づいて、適切な運転戦略を動的に定式化することができるべきである。
強化学習と模倣学習に基づく既存の手法は、安全性の低下、一般化の低さ、非効率サンプリングに悩まされている。
複雑・多種多様なシナリオを対象とした安全で汎用的なエンドツーエンド自動運転システムを提案する。
論文 参考訳(メタデータ) (2024-01-22T09:44:16Z) - LLM-Assist: Enhancing Closed-Loop Planning with Language-Based Reasoning [65.86754998249224]
従来のルールベースプランナとLCMベースのプランナを併用した,新しいハイブリッドプランナを開発した。
当社のアプローチでは,既存のプランナが苦労する複雑なシナリオをナビゲートし,合理的なアウトプットを生成すると同時に,ルールベースのアプローチと連携して作業する。
論文 参考訳(メタデータ) (2023-12-30T02:53:45Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - Imitation Is Not Enough: Robustifying Imitation with Reinforcement
Learning for Challenging Driving Scenarios [147.16925581385576]
シミュレーション学習と強化学習を組み合わせることで,運転方針の安全性と信頼性が大幅に向上することを示す。
都会の運転データ100万マイル以上でポリシーを訓練し、異なるレベルの衝突確率でグループ化されたテストシナリオにおける有効性を測定する。
論文 参考訳(メタデータ) (2022-12-21T23:59:33Z) - Safe Real-World Autonomous Driving by Learning to Predict and Plan with
a Mixture of Experts [3.2230833657560503]
我々は、自動運転車と他の道路エージェントの両方の将来の軌道にまたがる分布について提案する。
推論中は、安全性と予測確率を考慮したコストを最小限に抑える計画軌道を選択する。
都市部の公道上での自動運転車の展開に成功し、快適さを損なうことなく安全に運転できることを確認しました。
論文 参考訳(メタデータ) (2022-11-03T20:16:24Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Guided Safe Shooting: model based reinforcement learning with safety
constraints [4.431335899583956]
安全制約の最小限の違反でシステムを制御できるモデルベースのRLアプローチであるGuSS(Guid Safe Shooting)を導入する。
提案する安全プランナは3つあり,1つは単純なランダム・シューティング・ストラテジーに基づくもので,もう1つはより高度な分岐探索アルゴリズムMAP-Elitesに基づくものである。
論文 参考訳(メタデータ) (2022-06-20T12:46:35Z) - Automatically Learning Fallback Strategies with Model-Free Reinforcement
Learning in Safety-Critical Driving Scenarios [9.761912672523977]
本稿では, モデルレス強化学習(RL)エージェントに対して, 環境内の複数の動作モードを捉えるための原則的アプローチを提案する。
我々は、報酬モデルに擬似報酬項を導入し、最適政策によって特権付けられた領域とは異なる国家空間の領域への探索を奨励する。
我々は、トレーニング中に見逃されたであろう有用なポリシーを学習でき、制御アルゴリズムの実行時に使用できないことを示す。
論文 参考訳(メタデータ) (2022-04-11T15:34:49Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - High-level Decisions from a Safe Maneuver Catalog with Reinforcement
Learning for Safe and Cooperative Automated Merging [5.732271870257913]
統合シナリオにおける安全かつ協調的な自動運転のための効率的なRLに基づく意思決定パイプラインを提案する。
提案するRLエージェントは、車両状態履歴から協調運転者を効率よく識別し、対話的な操作を生成する。
論文 参考訳(メタデータ) (2021-07-15T15:49:53Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。