論文の概要: TARS: Traffic-Aware Radar Scene Flow Estimation
- arxiv url: http://arxiv.org/abs/2503.10210v1
- Date: Thu, 13 Mar 2025 09:54:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:52:55.156777
- Title: TARS: Traffic-Aware Radar Scene Flow Estimation
- Title(参考訳): TARS:交通対応レーダシーンフロー推定
- Authors: Jialong Wu, Marco Braun, Dominic Spata, Matthias Rottmann,
- Abstract要約: シーンフローは、自動運転にとって重要な動き情報を提供する。
最近のLiDARシーンフローモデルは、物体が剛体であると仮定して、インスタンスレベルでの剛体運動仮定を利用する。
本稿では,交通レベルにおける動き剛性を利用した新しい$textbfTARS$を提案する。
- 参考スコア(独自算出の注目度): 7.031882453765095
- License:
- Abstract: Scene flow provides crucial motion information for autonomous driving. Recent LiDAR scene flow models utilize the rigid-motion assumption at the instance level, assuming objects are rigid bodies. However, these instance-level methods are not suitable for sparse radar point clouds. In this work, we present a novel $\textbf{T}$raffic-$\textbf{A}$ware $\textbf{R}$adar $\textbf{S}$cene flow estimation method, named $\textbf{TARS}$, which utilizes the motion rigidity at the traffic level. To address the challenges in radar scene flow, we perform object detection and scene flow jointly and boost the latter. We incorporate the feature map from the object detector, trained with detection losses, to make radar scene flow aware of the environment and road users. Therefrom, we construct a Traffic Vector Field (TVF) in the feature space, enabling a holistic traffic-level scene understanding in our scene flow branch. When estimating the scene flow, we consider both point-level motion cues from point neighbors and traffic-level consistency of rigid motion within the space. TARS outperforms the state of the art on a proprietary dataset and the View-of-Delft dataset, improving the benchmarks by 23% and 15%, respectively.
- Abstract(参考訳): シーンフローは、自動運転にとって重要な動き情報を提供する。
最近のLiDARシーンフローモデルは、物体が剛体であると仮定して、インスタンスレベルでの剛体運動仮定を利用する。
しかし、これらのインスタンスレベルの手法は、スパースレーダポイントの雲には適さない。
本稿では,交通量レベルでの運動剛性を利用した新しい$\textbf{T}$raffic-$\textbf{A}$ware $\textbf{R}$adar $\textbf{S}$cene flow Estimation method, $\textbf{TARS}$について述べる。
レーダシーンフローの課題に対処するため,物体検出とシーンフローを共同で行い,後者を推し進める。
対象物検知器からの特徴マップを組み込み、検知損失を訓練し、環境や道路利用者にレーダーシーンの流れを知らせる。
そこで我々は,交通ベクトル場(TVF)を特徴空間内に構築し,シーンフローブランチにおける交通レベルの全体的理解を可能にする。
シーンフローを推定する際には, 点近傍からの点レベル運動キューと空間内の剛性運動のトラフィックレベル整合性の両方を考慮する。
TARSはプロプライエタリなデータセットとView-of-Delftデータセットで最先端を達成し、ベンチマークをそれぞれ23%、15%改善している。
関連論文リスト
- SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - DeFlow: Decoder of Scene Flow Network in Autonomous Driving [19.486167661795797]
シーンフロー推定は、シーン内のポイントの運動を予測することによって、シーンの3次元運動場を決定する。
入力として大規模な点雲を持つ多くのネットワークは、リアルタイム実行のための擬似イメージを作成するためにボキセル化を使用する。
本稿では, Gated Recurrent Unit (GRU) の改良により, ボクセルをベースとした特徴から点への遷移を可能にするDeFlowを紹介した。
論文 参考訳(メタデータ) (2024-01-29T12:47:55Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Traffic Scene Parsing through the TSP6K Dataset [109.69836680564616]
高品質なピクセルレベルのアノテーションとインスタンスレベルのアノテーションを備えた,TSP6Kと呼ばれる特殊なトラフィック監視データセットを導入する。
データセットは、既存の運転シーンの何倍ものトラフィック参加者を持つ、より混雑した交通シーンをキャプチャする。
交通シーンの異なるセマンティック領域の詳細を復元するシーン解析のためのディテールリフィニングデコーダを提案する。
論文 参考訳(メタデータ) (2023-03-06T02:05:14Z) - Self-Supervised Scene Flow Estimation with 4D Automotive Radar [7.3287286038702035]
4Dレーダーからのシーンフローを推定する方法はほとんど分かっていない。
LiDARの点雲と比較すると、レーダーデータは大幅に小さく、ノイズが高く、解像度もはるかに低い。
本研究の目的は,4次元レーダポイント雲からのシーンフローを,自己教師付き学習を利用して推定することである。
論文 参考訳(メタデータ) (2022-03-02T14:28:12Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z) - Do not trust the neighbors! Adversarial Metric Learning for
Self-Supervised Scene Flow Estimation [0.0]
シーンフローは動的3次元シーンの個々の点に3次元運動ベクトルを推定するタスクである。
本稿では,3次元シーンフローベンチマークと,トレーニングフローモデルのための新しい自己教師型セットアップを提案する。
我々は,移動コヒーレンスを保ち,多くの自監督ベースラインが把握できない局所的なジオメトリーを維持できることを発見した。
論文 参考訳(メタデータ) (2020-11-01T17:41:32Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。