論文の概要: UniFlow: Towards Zero-Shot LiDAR Scene Flow for Autonomous Vehicles via Cross-Domain Generalization
- arxiv url: http://arxiv.org/abs/2511.18254v1
- Date: Sun, 23 Nov 2025 02:51:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.72314
- Title: UniFlow: Towards Zero-Shot LiDAR Scene Flow for Autonomous Vehicles via Cross-Domain Generalization
- Title(参考訳): UniFlow: クロスドメイン一般化による自動運転車のためのゼロショットLiDARシーンフローを目指して
- Authors: Siyi Li, Qingwen Zhang, Ishan Khatri, Kyle Vedder, Deva Ramanan, Neehar Peri,
- Abstract要約: 我々は多種多様なLiDARセンサに転送する一般的な動きの先行を学習する。
我々は、複数の大規模LiDARシーンフローデータセットを統一し、訓練するフィードフォワードモデルのファミリーであるUniFlowを提案する。
UniFlowは、TruckScenesのような目に見えないデータセットで最先端の精度を実現し、TruckScenes固有のモデルよりも30.1%向上している。
- 参考スコア(独自算出の注目度): 46.6187296172395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LiDAR scene flow is the task of estimating per-point 3D motion between consecutive point clouds. Recent methods achieve centimeter-level accuracy on popular autonomous vehicle (AV) datasets, but are typically only trained and evaluated on a single sensor. In this paper, we aim to learn general motion priors that transfer to diverse and unseen LiDAR sensors. However, prior work in LiDAR semantic segmentation and 3D object detection demonstrate that naively training on multiple datasets yields worse performance than single dataset models. Interestingly, we find that this conventional wisdom does not hold for motion estimation, and that state-of-the-art scene flow methods greatly benefit from cross-dataset training. We posit that low-level tasks such as motion estimation may be less sensitive to sensor configuration; indeed, our analysis shows that models trained on fast-moving objects (e.g., from highway datasets) perform well on fast-moving objects, even across different datasets. Informed by our analysis, we propose UniFlow, a family of feedforward models that unifies and trains on multiple large-scale LiDAR scene flow datasets with diverse sensor placements and point cloud densities. Our frustratingly simple solution establishes a new state-of-the-art on Waymo and nuScenes, improving over prior work by 5.1% and 35.2% respectively. Moreover, UniFlow achieves state-of-the-art accuracy on unseen datasets like TruckScenes, outperforming prior TruckScenes-specific models by 30.1%.
- Abstract(参考訳): LiDARシーンフローは、連続する点雲間の点当たりの3D運動を推定するタスクである。
最近の方法では、一般的な自律走行車(AV)データセットでセンチメートルレベルの精度が達成されているが、通常は単一のセンサーでのみ訓練され評価される。
本稿では,多種多様な未知のLiDARセンサに転送される一般的な動作先を学習することを目的としている。
しかし、LiDARセマンティックセマンティックセグメンテーションと3Dオブジェクト検出の以前の研究は、複数のデータセットをナビゲート的にトレーニングすることで、単一のデータセットモデルよりもパフォーマンスが悪くなることを示した。
興味深いことに、この従来の知恵は動きの推定に役立ちませんし、最先端のシーンフロー手法はクロスデータセットトレーニングの恩恵を受けています。
実際、我々の分析では、高速移動物体(高速道路のデータセットなど)で訓練されたモデルが、異なるデータセットをまたいでも、高速移動物体に対して良好に動作していることが示されています。
提案するUniFlowは,多種多様なセンサ配置と点雲密度を備えた大規模LiDARシーンフローデータセットを統一し,訓練するフィードフォワードモデルのファミリーである。
我々のフラストレーションに単純なソリューションは、WaymoとnuScenesの新たな最先端を確立し、それぞれ5.1%と35.2%の先行作業を改善する。
さらに、UniFlowはTruckScenesのような目に見えないデータセットで最先端の精度を実現し、TruckScenes固有のモデルよりも30.1%向上した。
関連論文リスト
- SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - FAST3D: Flow-Aware Self-Training for 3D Object Detectors [12.511087244102036]
最先端の自己学習アプローチは、主に自律運転データの時間的性質を無視している。
連続したLiDAR点雲上の3次元物体検出器の教師なし領域適応を可能にするフロー認識型自己学習法を提案する。
以上の結果から,先進的なドメイン知識がなければ,最先端技術よりも大幅に向上することが示唆された。
論文 参考訳(メタデータ) (2021-10-18T14:32:05Z) - Scalable Scene Flow from Point Clouds in the Real World [30.437100097997245]
オープンデータセットに基づくシーンフローの大規模ベンチマークを新たに導入します。
実際のLiDARデータの量に基づいて、これまでの作業がバウンドされているかを示す。
フルポイントクラウド上でリアルタイム推論を提供するモデルアーキテクチャFastFlow3Dを紹介します。
論文 参考訳(メタデータ) (2021-03-01T20:56:05Z) - 2nd Place Scheme on Action Recognition Track of ECCV 2020 VIPriors
Challenges: An Efficient Optical Flow Stream Guided Framework [57.847010327319964]
我々は、小さなデータセットでモデルをスクラッチからトレーニングできるデータ効率フレームワークを提案する。
具体的には、3D中心差分畳み込み演算を導入することで、新しいC3Dニューラルネットワークベースの2ストリームフレームワークを提案する。
提案手法は,大規模データセット上で事前学習したモデルがなくても,有望な結果が得られることを実証した。
論文 参考訳(メタデータ) (2020-08-10T09:50:28Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - High-Precision Digital Traffic Recording with Multi-LiDAR Infrastructure
Sensor Setups [0.0]
融解したLiDAR点雲と単一LiDAR点雲との差について検討した。
抽出した軌道の評価は, 融合インフラストラクチャーアプローチが追跡結果を著しく増加させ, 数cm以内の精度に達することを示す。
論文 参考訳(メタデータ) (2020-06-22T10:57:52Z) - Any Motion Detector: Learning Class-agnostic Scene Dynamics from a
Sequence of LiDAR Point Clouds [4.640835690336654]
動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。
本稿では,固有点雲列の固有オドメトリック変換に匹敵する性能で,リアルタイムな推論を実現するためのエゴモーション補償層を提案する。
論文 参考訳(メタデータ) (2020-04-24T10:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。