論文の概要: LiDAR-BIND-T: Improving SLAM with Temporally Consistent Cross-Modal LiDAR Reconstruction
- arxiv url: http://arxiv.org/abs/2509.05728v1
- Date: Sat, 06 Sep 2025 14:21:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.672541
- Title: LiDAR-BIND-T: Improving SLAM with Temporally Consistent Cross-Modal LiDAR Reconstruction
- Title(参考訳): LiDAR-BIND-T: 一時持続型クロスモーダルLiDAR再構成によるSLAMの改善
- Authors: Niels Balemans, Ali Anwar, Jan Steckel, Siegfried Mercelis,
- Abstract要約: 本稿では,多元性センサ(レーダー,ソナー)をLiDAR定義潜在空間に結合するモジュール型マルチモーダル融合フレームワークLiDAR-BINDを拡張した。
提案手法では, (i) 連続潜時を整列する時間的埋め込み類似性, (ii) 予測と接地真実のLiDARの変位に一致する動き整列変換損失, (iii) 特別な時間的加群を用いた窓の時間的融合という3つの寄与を紹介する。
- 参考スコア(独自算出の注目度): 2.112132378217468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper extends LiDAR-BIND, a modular multi-modal fusion framework that binds heterogeneous sensors (radar, sonar) to a LiDAR-defined latent space, with mechanisms that explicitly enforce temporal consistency. We introduce three contributions: (i) temporal embedding similarity that aligns consecutive latents, (ii) a motion-aligned transformation loss that matches displacement between predictions and ground truth LiDAR, and (iii) windows temporal fusion using a specialised temporal module. We further update the model architecture to better preserve spatial structure. Evaluations on radar/sonar-to-LiDAR translation demonstrate improved temporal and spatial coherence, yielding lower absolute trajectory error and better occupancy map accuracy in Cartographer-based SLAM (Simultaneous Localisation and Mapping). We propose different metrics based on the Fr\'echet Video Motion Distance (FVMD) and a correlation-peak distance metric providing practical temporal quality indicators to evaluate SLAM performance. The proposed temporal LiDAR-BIND, or LiDAR-BIND-T, maintains plug-and-play modality fusion while substantially enhancing temporal stability, resulting in improved robustness and performance for downstream SLAM.
- Abstract(参考訳): 本稿では,多元性センサ(レーダー,ソナー)をLDAR定義潜在空間に結合するモジュール型多モード融合フレームワークであるLiDAR-BINDを拡張し,時間的一貫性を明示的に強制する機構について述べる。
3つのコントリビューションを紹介します。
一 連続潜伏者を整列させる時相埋没類似性
二 予測と地底真実LiDARの変位に一致した動き整合変換損失
三 特殊時間モジュールを用いた窓の時間融合
空間構造をよりよく保存するために、モデルアーキテクチャをさらに更新する。
レーダ/ソナー-リダー変換の評価は, 時間的・空間的コヒーレンスの向上を示し, 絶対軌道誤差が低く, 占領率マップの精度が向上した。
本研究では、Fr'echet Video Motion Distance(FVMD)と、SLAM性能を評価するための実用的な時間的品質指標を提供する相関ピーク距離測定値に基づいて異なるメトリクスを提案する。
提案した時間的LiDAR-BIND(LiDAR-BIND-T)は、時間的安定性を大幅に向上させ、下流SLAMの堅牢性と性能を向上させる。
関連論文リスト
- Beyond One Shot, Beyond One Perspective: Cross-View and Long-Horizon Distillation for Better LiDAR Representations [23.21118045286231]
LiMAは、LiDAR表現学習を強化するために、より長い時間的相関をキャプチャする新しいフレームワークである。
LiMAは事前トレーニングの効率が高く、下流タスク中に計算オーバーヘッドを発生させることはない。
主流のLiDARベースの知覚ベンチマークの実験により、LiMAはLiDARセマンティックセグメンテーションと3Dオブジェクト検出の両方を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-07-07T17:59:58Z) - SuperFlow++: Enhanced Spatiotemporal Consistency for Cross-Modal Data Pretraining [62.433137130087445]
SuperFlow++は、連続するカメラペアを使用して事前トレーニングと下流タスクを統合する新しいフレームワークである。
SuperFlow++は様々なタスクや運転条件で最先端のメソッドよりも優れています。
強力な一般化性と計算効率により、SuperFlow++は、自動運転におけるデータ効率の高いLiDARベースの認識のための新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2025-03-25T17:59:57Z) - Semantic-Supervised Spatial-Temporal Fusion for LiDAR-based 3D Object Detection [22.890432295751086]
LiDARをベースとした3Dオブジェクト検出は,LiDAR点の特異性に起因する重要な課題を呈している。
本研究では,物体の動きによる空間的不整合を緩和する新たな融合モジュールを提案する。
また,ポイントワイドなセマンティックラベルを注入することで,疎LiDARデータを充実させるセマンティックインジェクション法を提案する。
論文 参考訳(メタデータ) (2025-03-13T17:30:20Z) - Cross Space and Time: A Spatio-Temporal Unitized Model for Traffic Flow Forecasting [16.782154479264126]
時間的要因間の複雑な相互作用により、バックボーン・時間的トラフィックフローを予測することが課題となる。
既存のアプローチでは、これらの次元を分離し、重要な相互依存を無視している。
本稿では,空間的および時間的依存関係の両方をキャプチャする統合フレームワークであるSanonymous-Temporal Unitized Unitized Cell (ASTUC)を紹介する。
論文 参考訳(メタデータ) (2024-11-14T07:34:31Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Future Does Matter: Boosting 3D Object Detection with Temporal Motion Estimation in Point Cloud Sequences [25.74000325019015]
クロスフレーム動作予測情報を用いた時空間特徴学習を容易にするために,新しいLiDAR 3Dオブジェクト検出フレームワークLiSTMを導入する。
我々は,本フレームワークが優れた3次元検出性能を実現することを示すため,アグリゲーションとnuScenesデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-09-06T16:29:04Z) - DSLO: Deep Sequence LiDAR Odometry Based on Inconsistent Spatio-temporal Propagation [66.8732965660931]
本稿では,LiDAR odometry DSLO の非一貫性時間伝搬に基づく3次元点列学習モデルを提案する。
ピラミッド構造で、シーケンシャルなポーズモジュール、階層的なポーズリファインメントモジュール、時間的特徴伝搬モジュールで構成されている。
論文 参考訳(メタデータ) (2024-09-01T15:12:48Z) - Local-Global Temporal Difference Learning for Satellite Video Super-Resolution [53.03380679343968]
本稿では,時間的差分を効果的かつ効果的な時間的補償に利用することを提案する。
フレーム内における局所的・大域的時間的情報を完全に活用するために,短期・長期的時間的相違を体系的にモデル化した。
5つの主流ビデオ衛星に対して行われた厳密な客観的および主観的評価は、我々の手法が最先端のアプローチに対して好適に機能することを実証している。
論文 参考訳(メタデータ) (2023-04-10T07:04:40Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。