論文の概要: Centaur: Robust End-to-End Autonomous Driving with Test-Time Training
- arxiv url: http://arxiv.org/abs/2503.11650v1
- Date: Fri, 14 Mar 2025 17:59:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:04:59.986095
- Title: Centaur: Robust End-to-End Autonomous Driving with Test-Time Training
- Title(参考訳): Centaur: テストタイムトレーニングによるロバストなエンドツーエンド自動運転
- Authors: Chonghao Sima, Kashyap Chitta, Zhiding Yu, Shiyi Lan, Ping Luo, Andreas Geiger, Hongyang Li, Jose M. Alvarez,
- Abstract要約: 我々は,手作業によるルールやコスト関数に頼ることなく,テストタイムトレーニングを通じてプランナーの行動を更新するCentaurを提案する。
本稿では,クラスタ・エントロピー(Cluster Entropy,クラスタ・エントロピー)と呼ばれる新しい不確実性尺度を開発した。
- 参考スコア(独自算出の注目度): 84.78837437133234
- License:
- Abstract: How can we rely on an end-to-end autonomous vehicle's complex decision-making system during deployment? One common solution is to have a ``fallback layer'' that checks the planned trajectory for rule violations and replaces it with a pre-defined safe action if necessary. Another approach involves adjusting the planner's decisions to minimize a pre-defined ``cost function'' using additional system predictions such as road layouts and detected obstacles. However, these pre-programmed rules or cost functions cannot learn and improve with new training data, often resulting in overly conservative behaviors. In this work, we propose Centaur (Cluster Entropy for Test-time trAining using Uncertainty) which updates a planner's behavior via test-time training, without relying on hand-engineered rules or cost functions. Instead, we measure and minimize the uncertainty in the planner's decisions. For this, we develop a novel uncertainty measure, called Cluster Entropy, which is simple, interpretable, and compatible with state-of-the-art planning algorithms. Using data collected at prior test-time time-steps, we perform an update to the model's parameters using a gradient that minimizes the Cluster Entropy. With only this sole gradient update prior to inference, Centaur exhibits significant improvements, ranking first on the navtest leaderboard with notable gains in safety-critical metrics such as time to collision. To provide detailed insights on a per-scenario basis, we also introduce navsafe, a challenging new benchmark, which highlights previously undiscovered failure modes of driving models.
- Abstract(参考訳): デプロイ中に、エンド・ツー・エンドの自動運転車の複雑な意思決定システムにどのように依存するか?
一般的な解決策の1つは、計画されたルール違反の軌跡をチェックし、必要に応じて事前に定義された安全なアクションで置き換える '`fallback layer'' を持つことである。
もうひとつのアプローチは、道路レイアウトや検出された障害といった追加システム予測を使用して、事前に定義された‘コスト関数’を最小化するために、プランナーの判断を調整することだ。
しかし、これらの事前プログラムされたルールやコスト関数は、新しいトレーニングデータで学習や改善ができず、しばしば過度に保守的な振る舞いをもたらす。
本研究では、手作業によるルールやコスト関数に頼ることなく、テストタイムトレーニングを通じてプランナーの振る舞いを更新するCentaur(不確実性を用いたテストタイムtrAiningのためのクラスタエントロピー)を提案する。
代わりに、プランナーの決定の不確実性を測定し、最小化する。
そこで我々は,クラスタ・エントロピー(Cluster Entropy)と呼ばれる新しい不確実性尺度を開発した。
テスト前の時間ステップで収集されたデータを使用して、クラスタのエントロピーを最小限にする勾配を使用して、モデルのパラメータを更新します。
推論に先立ち、この唯一の勾配更新のみによって、Centaurは、衝突する時間などの安全クリティカルな指標において、ナウテストのリーダーボードで第1位にランクインするなど、大幅な改善がなされている。
シナリオ毎に詳細な洞察を提供するため、私たちは、これまで発見されていなかったドライビングモデルの障害モードを強調した、挑戦的な新しいベンチマークであるnavsafeも導入しています。
関連論文リスト
- Reinforcement Learning with Ensemble Model Predictive Safety
Certification [2.658598582858331]
教師なし探索は、安全クリティカルなタスクに強化学習アルゴリズムを配置することを防ぐ。
本稿では,モデルに基づく深層強化学習と管型モデル予測制御を組み合わせた新しいアルゴリズムを提案する。
以上の結果から,従来の強化学習法に比べて制約違反が著しく少ないことが示唆された。
論文 参考訳(メタデータ) (2024-02-06T17:42:39Z) - Model Checking for Closed-Loop Robot Reactive Planning [0.0]
モデル検査を用いて、ディファレンシャルドライブホイールロボットの多段階計画を作成することにより、即時危険を回避できることを示す。
簡単な生物エージェントのエゴセントリックな反応を反映した,小型で汎用的なモデル検査アルゴリズムを用いて,リアルタイムで計画を生成する。
論文 参考訳(メタデータ) (2023-11-16T11:02:29Z) - Learning-Aided Warmstart of Model Predictive Control in Uncertain
Fast-Changing Traffic [2.0965639599405366]
我々は、ネットワークベースのマルチモーダル予測器を用いて、自律走行車軌道の提案を生成する。
このアプローチにより,複数の局所最小値の同定が可能となり,初期推定精度が向上する。
我々はモンテカルロシミュレーションによるアプローチを異なるシナリオで検証する。
論文 参考訳(メタデータ) (2023-10-04T16:00:21Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - EvCenterNet: Uncertainty Estimation for Object Detection using
Evidential Learning [26.535329379980094]
EvCenterNetは、新しい不確実性を認識した2Dオブジェクト検出フレームワークである。
分類と回帰の不確実性の両方を推定するために、顕在的学習を用いる。
我々は、KITTIデータセット上でモデルをトレーニングし、配布外のデータセットに挑戦して評価する。
論文 参考訳(メタデータ) (2023-03-06T11:07:11Z) - Large-Scale Sequential Learning for Recommender and Engineering Systems [91.3755431537592]
本稿では,現在の状況に適応してパーソナライズされたランキングを提供する自動アルゴリズムの設計に焦点を当てる。
前者はSAROSと呼ばれる新しいアルゴリズムを提案し,インタラクションの順序を学習するためのフィードバックの種類を考慮に入れている。
提案手法は, 電力網の故障検出に対する初期アプローチと比較して, 統計的に有意な結果を示す。
論文 参考訳(メタデータ) (2022-05-13T21:09:41Z) - Continual Test-Time Domain Adaptation [94.51284735268597]
テスト時ドメイン適応は、ソースデータを使用しずに、ソース事前訓練されたモデルをターゲットドメインに適応することを目的としている。
CoTTAは実装が容易で、市販の事前訓練モデルに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-03-25T11:42:02Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。