論文の概要: Beyond One Model Fits All: Ensemble Deep Learning for Autonomous
Vehicles
- arxiv url: http://arxiv.org/abs/2312.05759v1
- Date: Sun, 10 Dec 2023 04:40:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 18:48:31.043317
- Title: Beyond One Model Fits All: Ensemble Deep Learning for Autonomous
Vehicles
- Title(参考訳): 1つのモデルを超えて: 自動運転車のためのディープラーニングを組み立てる
- Authors: Hemanth Manjunatha and Panagiotis Tsiotras
- Abstract要約: 本研究では,Mediated Perception, Behavior Reflex, Direct Perceptionの3つの異なるニューラルネットワークモデルを紹介する。
我々のアーキテクチャは、グローバルなルーティングコマンドを使用して、ベース、将来の潜伏ベクトル予測、補助タスクネットワークからの情報を融合し、適切なアクションサブネットワークを選択する。
- 参考スコア(独自算出の注目度): 16.398646583844286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has revolutionized autonomous driving by enabling vehicles to
perceive and interpret their surroundings with remarkable accuracy. This
progress is attributed to various deep learning models, including Mediated
Perception, Behavior Reflex, and Direct Perception, each offering unique
advantages and challenges in enhancing autonomous driving capabilities.
However, there is a gap in research addressing integrating these approaches and
understanding their relevance in diverse driving scenarios. This study
introduces three distinct neural network models corresponding to Mediated
Perception, Behavior Reflex, and Direct Perception approaches. We explore their
significance across varying driving conditions, shedding light on the strengths
and limitations of each approach. Our architecture fuses information from the
base, future latent vector prediction, and auxiliary task networks, using
global routing commands to select appropriate action sub-networks. We aim to
provide insights into effectively utilizing diverse modeling strategies in
autonomous driving by conducting experiments and evaluations. The results show
that the ensemble model performs better than the individual approaches,
suggesting that each modality contributes uniquely toward the performance of
the overall model. Moreover, by exploring the significance of each modality,
this study offers a roadmap for future research in autonomous driving,
emphasizing the importance of leveraging multiple models to achieve robust
performance.
- Abstract(参考訳): 深層学習は、車両が周囲を目覚ましい精度で認識し、解釈できるようにすることによって、自動運転に革命をもたらした。
この進歩は、媒介的知覚、行動反射、直接知覚を含む様々なディープラーニングモデルに起因しており、それぞれが自律運転能力を向上させるためのユニークな利点と課題を提供している。
しかし、これらのアプローチの統合と、様々な運転シナリオにおけるそれらの関連性を理解することに関する研究にはギャップがある。
本研究では,Mediated Perception, Behavior Reflex, Direct Perceptionの3つの異なるニューラルネットワークモデルを紹介する。
様々な運転条件においてその重要性を探り、それぞれのアプローチの強みと限界に光を当てる。
我々のアーキテクチャは、ベース、将来の潜在ベクトル予測、補助タスクネットワークからの情報を融合し、グローバルルーティングコマンドを使用して適切なアクションサブネットワークを選択する。
我々は,自動運転における多様なモデリング戦略を効果的に活用するための知見を実験と評価によって提供することを目的とする。
その結果、アンサンブルモデルは個々のアプローチよりも優れた性能を示し、各モードが全体のモデルの性能に一意に寄与することが示唆された。
さらに,各モダリティの重要性を探究することにより,ロバストな性能を実現するために複数のモデルを活用することの重要性を強調しながら,自動運転における今後の研究のロードマップを提供する。
関連論文リスト
- Exploring the Interplay Between Video Generation and World Models in Autonomous Driving: A Survey [61.39993881402787]
世界モデルとビデオ生成は、自動運転の領域において重要な技術である。
本稿では,この2つの技術の関係について検討する。
映像生成モデルと世界モデルとの相互作用を分析することにより,重要な課題と今後の研究方向性を明らかにする。
論文 参考訳(メタデータ) (2024-11-05T08:58:35Z) - DeepInteraction++: Multi-Modality Interaction for Autonomous Driving [80.8837864849534]
我々は,モダリティごとの個別表現を学習し,維持することのできる,新しいモダリティインタラクション戦略を導入する。
DeepInteraction++はマルチモーダルなインタラクション・フレームワークであり、マルチモーダルな表現型インタラクション・エンコーダとマルチモーダルな予測型インタラクション・デコーダを特徴とする。
実験では,3次元物体検出とエンドツーエンドの自律走行の両方において,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-09T14:04:21Z) - Looking for a better fit? An Incremental Learning Multimodal Object
Referencing Framework adapting to Individual Drivers [0.0]
自動車産業の急速な進歩により、タッチベースや音声コマンドシステムといった従来の車両のインタラクション方法は、車両外の物体を参照するなど、幅広い非運転関連のタスクには不十分である。
textitIcRegressは、オブジェクトの駆動と参照という2つのタスクに携わるドライバーの振る舞いや特徴に適応する、新しい回帰に基づく漸進的学習手法である。
論文 参考訳(メタデータ) (2024-01-29T12:48:56Z) - Reason2Drive: Towards Interpretable and Chain-based Reasoning for Autonomous Driving [38.28159034562901]
Reason2Driveは600万以上のビデオテキストペアを備えたベンチマークデータセットである。
我々は、自律運転プロセスが知覚、予測、推論ステップの逐次的な組み合わせであると特徴付けている。
本稿では,自律システムにおける連鎖型推論性能を評価するための新しい集計評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:32:33Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Planning-oriented Autonomous Driving [60.93767791255728]
我々は、最終目標、すなわち自動運転車の計画を追求するために、好ましいフレームワークを考案し、最適化すべきであると主張している。
フルスタック運転タスクをひとつのネットワークに組み込んだ総合的なフレームワークであるUnified Autonomous Driving (UniAD)を紹介した。
論文 参考訳(メタデータ) (2022-12-20T10:47:53Z) - Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction [71.97877759413272]
軌道予測は、自動運転車が行動を計画し実行するための安全クリティカルなツールです。
近年の手法は,WTAやベスト・オブ・マニーといったマルチコース学習の目標を用いて,強力なパフォーマンスを実現している。
我々の研究は、軌道予測、学習出力、そして運転知識を使って制約を課すことによるより良い予測における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2021-04-16T17:58:56Z) - Pedestrian Behavior Prediction via Multitask Learning and Categorical
Interaction Modeling [13.936894582450734]
マルチモーダルデータに頼って歩行者の軌跡や行動を同時に予測するマルチタスク学習フレームワークを提案する。
本モデルでは, トラジェクティブと動作予測を最大22%, 6%向上させる。
論文 参考訳(メタデータ) (2020-12-06T15:57:11Z) - Action-Based Representation Learning for Autonomous Driving [8.296684637620551]
本稿では,行動に基づく運転データを学習表現に用いることを提案する。
提案手法を用いて事前学習した空き時間に基づく運転モデルでは,比較的少量の弱注釈画像が有効であることを示す。
論文 参考訳(メタデータ) (2020-08-21T10:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。