論文の概要: Bi-Level Optimization Augmented with Conditional Variational Autoencoder
for Autonomous Driving in Dense Traffic
- arxiv url: http://arxiv.org/abs/2212.02224v1
- Date: Mon, 5 Dec 2022 12:56:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 19:22:07.832233
- Title: Bi-Level Optimization Augmented with Conditional Variational Autoencoder
for Autonomous Driving in Dense Traffic
- Title(参考訳): 密集交通における自律走行のための条件変動オートエンコーダによるバイレベル最適化
- Authors: Arun Kumar Singh, Jatan Shrestha, Nicola Albarella
- Abstract要約: 本稿では、最適行動決定と結果の軌跡を共同で計算するパラメータ化バイレベル最適化を提案する。
当社のアプローチは,GPUアクセラレーションバッチを使用してリアルタイムに動作し,変分オートエンコーダがウォームスタート戦略を学習する。
本手法は, 運転効率の競争力に優れながら, 衝突速度の観点から, 最先端モデル予測制御とRLアプローチより優れる。
- 参考スコア(独自算出の注目度): 0.9281671380673306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous driving has a natural bi-level structure. The goal of the upper
behavioural layer is to provide appropriate lane change, speeding up, and
braking decisions to optimize a given driving task. However, this layer can
only indirectly influence the driving efficiency through the lower-level
trajectory planner, which takes in the behavioural inputs to produce motion
commands. Existing sampling-based approaches do not fully exploit the strong
coupling between the behavioural and planning layer. On the other hand,
end-to-end Reinforcement Learning (RL) can learn a behavioural layer while
incorporating feedback from the lower-level planner. However, purely
data-driven approaches often fail in safety metrics in unseen environments.
This paper presents a novel alternative; a parameterized bi-level optimization
that jointly computes the optimal behavioural decisions and the resulting
downstream trajectory. Our approach runs in real-time using a custom
GPU-accelerated batch optimizer, and a Conditional Variational Autoencoder
learnt warm-start strategy. Extensive simulations show that our approach
outperforms state-of-the-art model predictive control and RL approaches in
terms of collision rate while being competitive in driving efficiency.
- Abstract(参考訳): 自動運転には自然な二レベル構造がある。
上層行動層の目的は、所定の運転タスクを最適化するための適切な車線変更、スピードアップ、ブレーキ決定を提供することです。
しかし、この層は、動作命令を生成する動作入力を取り込む低レベル軌道プランナーを通して、間接的に駆動効率にのみ影響することができる。
既存のサンプリングベースのアプローチは、振舞い層と計画層の間の強い結合を完全には活用しない。
一方、エンドツーエンド強化学習(rl)は、低レベルのプランナーからのフィードバックを取り入れながら、行動層を学習することができる。
しかし、純粋なデータ駆動アプローチは、しばしば見えない環境での安全性指標で失敗する。
本稿では、最適動作決定と結果の下流軌道を共同で計算するパラメータ化二段階最適化法を提案する。
当社のアプローチは,GPUアクセラレーションバッチオプティマイザを使用してリアルタイムに動作し,条件変分自動エンコーダがウォームスタート戦略を学習する。
本手法は, 運転効率の競争力に優れながら, 衝突速度の観点から, 最先端モデル予測制御とRLアプローチより優れていることを示す。
関連論文リスト
- Understanding Optimization in Deep Learning with Central Flows [53.66160508990508]
RMSの暗黙的な振る舞いは、微分方程式の「中央流:」によって明示的に捉えられることを示す。
これらのフローは、汎用ニューラルネットワークの長期最適化軌道を経験的に予測できることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:13Z) - End-to-end Driving in High-Interaction Traffic Scenarios with Reinforcement Learning [24.578178308010912]
これらの問題に対処するために,Ranmble というエンドツーエンドモデルベース RL アルゴリズムを提案する。
環境のダイナミックスモデルを学ぶことで、Rambleは今後のトラフィックイベントを予測し、より情報に富んだ戦略的決定を下すことができる。
Rambleは、CARLA Leaderboard 2.0におけるルート完了率と運転スコアに関する最先端のパフォーマンスを達成し、複雑でダイナミックな交通状況を管理する上での有効性を示している。
論文 参考訳(メタデータ) (2024-10-03T06:45:59Z) - DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - AutoFT: Learning an Objective for Robust Fine-Tuning [60.641186718253735]
ファンデーションモデルは、微調整によって下流タスクに適応できるリッチな表現をエンコードする。
手作り正則化技術を用いた頑健な微調整への最近のアプローチ
我々は、堅牢な微調整のためのデータ駆動型アプローチであるAutoFTを提案する。
論文 参考訳(メタデータ) (2024-01-18T18:58:49Z) - Integrating Higher-Order Dynamics and Roadway-Compliance into
Constrained ILQR-based Trajectory Planning for Autonomous Vehicles [3.200238632208686]
軌道計画は、自動運転車のグローバルな最適ルートを作成することを目的としている。
既存の自転車キネマティックモデルを用いた実装では、制御可能な軌道は保証できない。
このモデルを、曲率と長手ジャークの1階および2階微分を含む高階項で拡張する。
論文 参考訳(メタデータ) (2023-09-25T22:30:18Z) - A Safe Hierarchical Planning Framework for Complex Driving Scenarios
based on Reinforcement Learning [23.007323699176467]
低レベルコントローラのコーディネーターとして,低レベルセーフコントローラセットと高レベル強化学習アルゴリズム(H-CtRL)を用いた階層的行動計画フレームワークを提案する。
低レベルの最適化/サンプリングベースのコントローラによって安全性が保証され、高レベルの強化学習アルゴリズムはH-CtRLを適応的で効率的な行動プランナにする。
提案したH-CtRLは,安全性と効率の両面で性能を満足して,様々な現実的なシミュレーションシナリオにおいて有効であることが証明された。
論文 参考訳(メタデータ) (2021-01-17T20:45:42Z) - Amortized Q-learning with Model-based Action Proposals for Autonomous
Driving on Highways [10.687104237121408]
トラジェクティブプランナーと組み合わせて、最適な長期運転戦略を学習する強化学習に基づくアプローチを導入する。
局所最適操作をアクションとしてオンラインに生成することにより、無限の低レベル連続アクション空間と、予め定義された標準レーン変更アクションの固定数の限られた柔軟性のバランスをとることができる。
論文 参考訳(メタデータ) (2020-12-06T11:04:40Z) - Efficient Sampling-Based Maximum Entropy Inverse Reinforcement Learning
with Application to Autonomous Driving [35.44498286245894]
本稿では,効率的なサンプリングに基づく最大エントロピー逆強化学習(IRL)アルゴリズムを提案する。
提案アルゴリズムは,非対話的シナリオと対話的シナリオの両方を含む実運転データに基づいて評価する。
論文 参考訳(メタデータ) (2020-06-22T01:41:13Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。