論文の概要: FlowAD: Ego-Scene Interactive Modeling for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2603.13399v1
- Date: Wed, 11 Mar 2026 16:28:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.164543
- Title: FlowAD: Ego-Scene Interactive Modeling for Autonomous Driving
- Title(参考訳): FlowAD: 自動運転のためのエゴシーンインタラクティブモデリング
- Authors: Mingzhe Guo, Yixiang Yang, Chuanrong Han, Rufeng Zhang, Shirui Li, Ji Wan, Zhipeng Zhang,
- Abstract要約: 本稿では,新しいエゴシーン対話型モデリングパラダイムを提案する。
人間の認識にインスパイアされたこのパラダイムは、エゴ-車両に対するシーンフローとして、エゴ-シーンの相互作用を表現している。
その内部では、エゴ誘導シーン分割がまず基本的なフローユニットを構築してシーンフローを定量化する。
そして、フロー単位に基づいて、空間的および時間的フロー予測を行い、シーンフローのダイナミクスをモデル化する。
- 参考スコア(独自算出の注目度): 20.991905328262746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective environment modeling is the foundation for autonomous driving, underpinning tasks from perception to planning. However, current paradigms often inadequately consider the feedback of ego motion to the observation, which leads to an incomplete understanding of the driving process and consequently limits the planning capability. To address this issue, we introduce a novel ego-scene interactive modeling paradigm. Inspired by human recognition, the paradigm represents ego-scene interaction as the scene flow relative to the ego-vehicle. This conceptualization allows for modeling ego-motion feedback within a feature learning pattern, advantageously utilizing existing log-replay datasets rather than relying on scenario simulations. We specifically propose FlowAD, a general flow-based framework for autonomous driving. Within it, an ego-guided scene partition first constructs basic flow units to quantify scene flow. The ego-vehicle's forward direction and steering velocity directly shape the partition, which reflects ego motion. Then, based on flow units, spatial and temporal flow predictions are performed to model dynamics of scene flow, encompassing both spatial displacement and temporal variation. The final task-aware enhancement exploits learned spatio-temporal flow dynamics to benefit diverse tasks through object and region-level strategies. We also propose a novel Frames before Correct Planning (FCP) metric to assess the scene understanding capability. Experiments in both open and closed-loop evaluations demonstrate FlowAD's generality and effectiveness across perception, end-to-end planning, and VLM analysis. Notably, FlowAD reduces 19% collision rate over SparseDrive with FCP improvements of 1.39 frames (60%) on nuScenes, and achieves an impressive driving score of 51.77 on Bench2Drive, proving the superiority. Code, model, and configurations will be released here.
- Abstract(参考訳): 効果的な環境モデリングは自律運転の基礎であり、知覚から計画へのタスクの基盤となっている。
しかし、現在のパラダイムは、しばしばエゴ運動のフィードバックを観察に不適切に考慮し、それによって運転過程が不完全な理解となり、結果として計画能力が制限される。
この問題に対処するために,新しいエゴシーン対話型モデリングパラダイムを導入する。
人間の認識にインスパイアされたこのパラダイムは、エゴ-車両に対するシーンフローとして、エゴ-シーンの相互作用を表現している。
この概念化により、シナリオシミュレーションに頼るのではなく、既存のログ再生データセットを有利に活用して、機能学習パターン内のエゴモーションフィードバックをモデル化することができる。
本稿では,自動走行のための一般的なフローベースフレームワークであるFlowADを提案する。
その内部では、エゴ誘導シーン分割がまず基本的なフローユニットを構築してシーンフローを定量化する。
エゴ車両の前方方向と操舵速度は、エゴ運動を反映するパーティションを直接形成する。
そして、フロー単位に基づいて、空間的変位と時間的変動の両方を含むシーンフローのダイナミクスをモデル化するために、空間的および時間的フロー予測を行う。
最後のタスク認識強化は、学習した時空間フローのダイナミクスを利用して、オブジェクトおよび地域レベルの戦略を通じて多様なタスクに利益をもたらす。
また、シーン理解能力を評価するために、FCP(FCP)メトリクスを新たに提案する。
オープンループ評価とクローズループ評価の両方の実験は、FlowADの一般性と、知覚、エンドツーエンド計画、VLM分析における有効性を示している。
特に FlowAD は nuScenes 上で 1.39 フレーム (60%) の FCP 改善により SparseDrive 上の19% の衝突率を削減し、Bench2Drive 上では 51.77 という印象的な駆動スコアを達成し、優位性を証明している。
コード、モデル、設定はここでリリースされる。
関連論文リスト
- FlowDrive: Energy Flow Field for End-to-End Autonomous Driving [50.89871153094958]
FlowDriveは、物理的に解釈可能なエネルギーベースのフローフィールドを導入し、セマンティックな前提と安全性をBEV空間にエンコードする新しいフレームワークである。
NAVSIM v2ベンチマークの実験では、FlowDriveが最先端のパフォーマンスを86.3で達成し、安全性と計画品質の両方において以前のベースラインを超えたことが示されている。
論文 参考訳(メタデータ) (2025-09-17T13:51:33Z) - DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - Self-Supervised Learning of Non-Rigid Residual Flow and Ego-Motion [63.18340058854517]
動的3次元シーンに対する非剛性残留流とエゴ運動流の連成推定によるエンドツーエンドのシーンフロー学習法を提案する。
我々は、点クラウドシーケンスの時間的一貫性性に基づいて、自己監督的な信号で教師付きフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-09-22T11:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。