論文の概要: VISC: mmWave Radar Scene Flow Estimation using Pervasive Visual-Inertial Supervision
- arxiv url: http://arxiv.org/abs/2507.03938v1
- Date: Sat, 05 Jul 2025 07:53:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.948023
- Title: VISC: mmWave Radar Scene Flow Estimation using Pervasive Visual-Inertial Supervision
- Title(参考訳): VISC:広帯域ビジュアル・慣性スーパービジョンを用いたミリ波レーダシーンフロー推定
- Authors: Kezhong Liu, Yiwen Zhou, Mozi Chen, Jianhua He, Jingao Xu, Zheng Yang, Chris Xiaoxuan Lu, Shengkai Zhang,
- Abstract要約: mmWaveレーダの現在のシーンフロー推定法は、3次元LiDARからの高密度点雲によって監視されるのが一般的である。
本稿では,運動モデルに基づく自我運動とニューラルネットワーク学習結果とを融合したドリフトフリー剛性変換推定器を提案する。
レーダーベースの剛性変換に対して強力な監視信号を提供し、静的点のシーンフローを推測する。
- 参考スコア(独自算出の注目度): 15.903580198464432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes a mmWave radar's scene flow estimation framework supervised by data from a widespread visual-inertial (VI) sensor suite, allowing crowdsourced training data from smart vehicles. Current scene flow estimation methods for mmWave radar are typically supervised by dense point clouds from 3D LiDARs, which are expensive and not widely available in smart vehicles. While VI data are more accessible, visual images alone cannot capture the 3D motions of moving objects, making it difficult to supervise their scene flow. Moreover, the temporal drift of VI rigid transformation also degenerates the scene flow estimation of static points. To address these challenges, we propose a drift-free rigid transformation estimator that fuses kinematic model-based ego-motions with neural network-learned results. It provides strong supervision signals to radar-based rigid transformation and infers the scene flow of static points. Then, we develop an optical-mmWave supervision extraction module that extracts the supervision signals of radar rigid transformation and scene flow. It strengthens the supervision by learning the scene flow of dynamic points with the joint constraints of optical and mmWave radar measurements. Extensive experiments demonstrate that, in smoke-filled environments, our method even outperforms state-of-the-art (SOTA) approaches using costly LiDARs.
- Abstract(参考訳): 本研究は、広義の視覚慣性センサー(VI)スイートからのデータによって監視されるmmWaveレーダのシーンフロー推定フレームワークを提案し、スマート車からのクラウドソーストレーニングデータを可能にする。
mmWaveレーダの現在のシーンフロー推定法は3次元LiDARの高密度点雲によって監視されるが、これは高価であり、スマート車では広く利用できない。
VIデータはよりアクセスしやすいが、視覚画像だけでは動く物体の3次元の動きを捉えられず、シーンの流れを監督することは困難である。
さらに、VIの剛性変換の時間的ドリフトも静的点のシーンフロー推定を退化させる。
これらの課題に対処するために,キネマティックモデルに基づく自我運動とニューラルネットワーク学習結果とを融合したドリフトフリーな剛性変換推定器を提案する。
レーダーベースの剛性変換に対して強力な監視信号を提供し、静的点のシーンフローを推測する。
そこで我々は,レーダ剛性変換とシーンフローの監視信号を抽出する光-mmWave監視抽出モジュールを開発した。
光学およびミリ波レーダ計測の連成制約により動的点のシーンフローを学習することにより、監視を強化する。
煙に満ちた環境では,コストのかかるLiDARを用いたSOTA(State-of-the-art)アプローチよりも優れていた。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Self-Supervised Scene Flow Estimation with 4D Automotive Radar [7.3287286038702035]
4Dレーダーからのシーンフローを推定する方法はほとんど分かっていない。
LiDARの点雲と比較すると、レーダーデータは大幅に小さく、ノイズが高く、解像度もはるかに低い。
本研究の目的は,4次元レーダポイント雲からのシーンフローを,自己教師付き学習を利用して推定することである。
論文 参考訳(メタデータ) (2022-03-02T14:28:12Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。