論文の概要: Divide and Merge: Motion and Semantic Learning in End-to-End Autonomous Driving
- arxiv url: http://arxiv.org/abs/2502.07631v1
- Date: Tue, 11 Feb 2025 15:21:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:07:31.394022
- Title: Divide and Merge: Motion and Semantic Learning in End-to-End Autonomous Driving
- Title(参考訳): Divide and Merge: エンドツーエンド自動運転における動作とセマンティック学習
- Authors: Yinzhe Shen, Ömer Şahin Taş, Kaiwen Wang, Royden Wagner, Christoph Stiller,
- Abstract要約: 本稿では,新しい並列検出,追跡,予測手法であるニューラルベイズ動作復号法を提案する。
対話型セマンティックデコーディングを用いて、セマンティックタスクにおける情報交換を強化し、肯定的な伝達を促進する。
提案手法は,計画モジュールの変更を伴わないオープンループ計画評価において,最先端の衝突率を実現する。
- 参考スコア(独自算出の注目度): 7.620469713146574
- License:
- Abstract: Perceiving the environment and its changes over time corresponds to two fundamental yet heterogeneous types of information: semantics and motion. Previous end-to-end autonomous driving works represent both types of information in a single feature vector. However, including motion tasks, such as prediction and planning, always impairs detection and tracking performance, a phenomenon known as negative transfer in multi-task learning. To address this issue, we propose Neural-Bayes motion decoding, a novel parallel detection, tracking, and prediction method separating semantic and motion learning, similar to the Bayes filter. Specifically, we employ a set of learned motion queries that operate in parallel with the detection and tracking queries, sharing a unified set of recursively updated reference points. Moreover, we employ interactive semantic decoding to enhance information exchange in semantic tasks, promoting positive transfer. Experiments on the nuScenes dataset show improvements of 5% in detection and 11% in tracking. Our method achieves state-of-the-art collision rates in open-loop planning evaluation without any modifications to the planning module.
- Abstract(参考訳): 時間とともに環境とその変化を認識することは、セマンティックスとモーションという2つの基本的な情報に対応する。
従来のエンドツーエンドの自動運転作業は、両方の種類の情報を単一の特徴ベクトルで表現する。
しかし、予測や計画などの動作タスクは、マルチタスク学習において負の伝達と呼ばれる現象である検出と追跡性能を常に損なう。
この問題に対処するために,ニューラルベイズ・モーション・デコーディング,新しい並列検出,追跡,およびベイズ・フィルタに似た意味と動きの学習を分離する予測手法を提案する。
具体的には、再帰的に更新された参照ポイントの集合を共有することで、クエリの検出と追跡と並行して動作する一連の学習されたモーションクエリを採用する。
さらに,対話型セマンティックデコーディングを用いて,セマンティックタスクにおける情報交換を強化し,肯定的な伝達を促進する。
nuScenesデータセットの実験では、検出が5%、トラッキングが11%改善した。
提案手法は,計画モジュールの変更を伴わないオープンループ計画評価において,最先端の衝突率を実現する。
関連論文リスト
- Interaction Dataset of Autonomous Vehicles with Traffic Lights and Signs [11.127555705122283]
本稿では,自動走行車(AV)と交通制御装置,特に信号機と停止標識の相互作用を総合的に把握するデータセットの開発について述べる。
我々の研究は、AVがこれらの交通制御装置をどのようにナビゲートするかの実際の軌跡データを提供することによって、既存の文献における重要なギャップに対処する。
本研究では,交通信号を用いた37,000以上のインスタンスと,停止標識を用いた44,000のインスタンスを組み込んで,関連する対話軌跡データをMotionデータセットから同定し抽出する手法を提案する。
論文 参考訳(メタデータ) (2025-01-21T22:59:50Z) - Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - T4P: Test-Time Training of Trajectory Prediction via Masked Autoencoder and Actor-specific Token Memory [39.021321011792786]
軌道予測は、複数のアクター間の相互作用を考慮することを必要とする難しい問題である。
データ駆動型アプローチは、この複雑な問題に対処するために使われてきたが、テスト期間中に分散シフトの下では信頼性の低い予測に悩まされている。
本研究では,観測データから回帰損失を用いたオンライン学習手法を提案する。
提案手法は,予測精度と計算効率の両方の観点から,既存の最先端オンライン学習手法の性能を超越した手法である。
論文 参考訳(メタデータ) (2024-03-15T06:47:14Z) - Improved LiDAR Odometry and Mapping using Deep Semantic Segmentation and
Novel Outliers Detection [1.0334138809056097]
高速移動プラットフォームのためのLOAMアーキテクチャに基づくリアルタイムLiDARオドメトリーとマッピングのための新しいフレームワークを提案する。
本フレームワークは,ディープラーニングモデルによって生成された意味情報を用いて,ポイント・ツー・ラインとポイント・ツー・プレーンのマッチングを改善する。
高速動作に対するLiDARオドメトリーのロバスト性に及ぼすマッチング処理の改善効果について検討した。
論文 参考訳(メタデータ) (2024-03-05T16:53:24Z) - Simultaneous Clutter Detection and Semantic Segmentation of Moving
Objects for Automotive Radar Data [12.96486891333286]
レーダセンサは、自動運転車の環境認識システムにおいて重要な部分である。
レーダーポイント雲の処理における最初のステップの1つは、しばしば乱れの検出である。
もう一つの一般的な目的は、移動道路利用者のセマンティックセグメンテーションである。
我々は,RadarScenesデータセットのセマンティックセマンティックセグメンテーションにおいて,我々の設定が極めて効果的であることを示し,既存のネットワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-13T11:29:38Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - FineDiving: A Fine-grained Dataset for Procedure-aware Action Quality
Assessment [93.09267863425492]
競争力のあるスポーツビデオにおける行動の高レベル意味論と内部時間構造の両方を理解することが、予測を正確かつ解釈可能なものにする鍵である、と我々は主張する。
本研究では,多様なダイビングイベントに対して,アクションプロシージャに関する詳細なアノテーションを付加した,ファインディビングと呼ばれる詳細なデータセットを構築した。
論文 参考訳(メタデータ) (2022-04-07T17:59:32Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。