論文の概要: Hydra-MDP++: Advancing End-to-End Driving via Expert-Guided Hydra-Distillation
- arxiv url: http://arxiv.org/abs/2503.12820v1
- Date: Mon, 17 Mar 2025 04:58:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:30:42.399735
- Title: Hydra-MDP++: Advancing End-to-End Driving via Expert-Guided Hydra-Distillation
- Title(参考訳): Hydra-MDP++: エキスパートガイドによるエンドツーエンド運転の改善
- Authors: Kailin Li, Zhenxin Li, Shiyi Lan, Yuan Xie, Zhizhong Zhang, Jiayi Liu, Zuxuan Wu, Zhiding Yu, Jose M. Alvarez,
- Abstract要約: Hydra-MDP++は,マルチヘッドデコーダを備えた新しい知識蒸留フレームワークである。
このフレームワークには、交通光コンプライアンス(TL)、車線維持能力(LK)、快適性(EC)など、拡張された評価指標が組み込まれている。
Hydra-MDP++は、これらのコンポーネントをNAVSIMの91.0%のドライブスコアと統合することで、最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 71.08149200234188
- License:
- Abstract: Hydra-MDP++ introduces a novel teacher-student knowledge distillation framework with a multi-head decoder that learns from human demonstrations and rule-based experts. Using a lightweight ResNet-34 network without complex components, the framework incorporates expanded evaluation metrics, including traffic light compliance (TL), lane-keeping ability (LK), and extended comfort (EC) to address unsafe behaviors not captured by traditional NAVSIM-derived teachers. Like other end-to-end autonomous driving approaches, \hydra processes raw images directly without relying on privileged perception signals. Hydra-MDP++ achieves state-of-the-art performance by integrating these components with a 91.0% drive score on NAVSIM through scaling to a V2-99 image encoder, demonstrating its effectiveness in handling diverse driving scenarios while maintaining computational efficiency.
- Abstract(参考訳): Hydra-MDP++は、人間のデモやルールベースの専門家から学ぶマルチヘッドデコーダを備えた、新しい教師による知識蒸留フレームワークを導入した。
複雑なコンポーネントを使わずに軽量なResNet-34ネットワークを使用して、従来のNAVSIMの教師が捉えない安全でない振る舞いに対処するために、交通光コンプライアンス(TL)、車線維持能力(LK)、拡張快適性(EC)など、拡張された評価指標を組み込んだ。
他のエンドツーエンドの自動運転アプローチと同様に、Shahydraは特権的な知覚信号に頼ることなく、生画像を直接処理する。
Hydra-MDP++は、V2-99イメージエンコーダへのスケーリングを通じて、これらのコンポーネントをNAVSIM上の91.0%のドライブスコアと統合することで、最先端のパフォーマンスを実現し、計算効率を保ちながら、多様な駆動シナリオを扱うことの有効性を実証している。
関連論文リスト
- Hydra-MDP: End-to-end Multimodal Planning with Multi-target Hydra-Distillation [115.63989808986105]
教師-学生モデルに複数の教師を取り入れた新しいパラダイムであるHydra-MDPを提案する。
このアプローチは、学生モデルを訓練するために、人間とルールベースの教師の両方からの知識蒸留を利用する。
ルールベースの教師の知識により、Hydra-MDPは、非微分不可能な後処理に頼るのではなく、エンド・ツー・エンドの方法で環境がプランニングにどのように影響するかを学ぶ。
論文 参考訳(メタデータ) (2024-06-11T06:18:26Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Penalty-Based Imitation Learning With Cross Semantics Generation Sensor
Fusion for Autonomous Driving [1.2749527861829049]
本稿では,複数の情報モダリティを統合するために,ペナルティに基づく模倣学習手法を提案する。
最新技術(SOTA)モデルであるInterFuserと比較して,運転スコアが12%以上増加していることが観察された。
本モデルでは, 推論速度を7倍に向上し, モデルサイズを約30%削減しながら, この性能向上を実現している。
論文 参考訳(メタデータ) (2023-03-21T14:29:52Z) - Doubly Contrastive End-to-End Semantic Segmentation for Autonomous
Driving under Adverse Weather [6.808112517338073]
本稿では,より実用性の高い自動運転モデルの性能向上のための2つの対照的なアプローチを提案する。
提案手法は,エンドツーエンドの教師あり学習方式において,画像レベルのコントラストと画素レベルのコントラストを利用する。
我々は,画像レベルの監督を自己監督に置き換えることで,晴れた気象画像で事前訓練した場合に同等の性能を達成できることを実証した。
論文 参考訳(メタデータ) (2022-11-21T00:26:41Z) - DeepIPC: Deeply Integrated Perception and Control for an Autonomous Vehicle in Real Environments [7.642646077340124]
本稿では,自動運転に適した新しいエンドツーエンドモデルであるDeepIPCを紹介する。
DeepIPCは知覚と制御タスクをシームレスに統合する。
本評価は,DeepIPCの乾燥性およびマルチタスク効率において優れた性能を示すものである。
論文 参考訳(メタデータ) (2022-07-20T14:20:35Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - TransFuser: Imitation with Transformer-Based Sensor Fusion for
Autonomous Driving [46.409930329699336]
本稿では,自己注意を用いた画像とLiDAR表現の統合機構であるTransFuserを提案する。
提案手法では,複数解像度のトランスフォーマーモジュールを用いて視線と鳥の視線の特徴マップを融合する。
我々は、CARLA都市運転シミュレータの公式リーダーボードと同様に、長いルートと密集した交通量を持つ挑戦的な新しいベンチマークにおいて、その効果を実験的に検証した。
論文 参考訳(メタデータ) (2022-05-31T17:57:19Z) - TransDARC: Transformer-based Driver Activity Recognition with Latent
Space Feature Calibration [31.908276711898548]
本稿では、視覚変換器に基づく二次運転行動認識のための視覚ベースのフレームワークと、機能分散キャリブレーションモジュールを提案する。
当社のフレームワークは,すべてのレベルにおいて,公的なDrive&Actベンチマークの過去の成果を上回り,認識率を常に向上させています。
論文 参考訳(メタデータ) (2022-03-02T08:14:06Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。