論文の概要: SF3D-RGB: Scene Flow Estimation from Monocular Camera and Sparse LiDAR
- arxiv url: http://arxiv.org/abs/2602.21699v1
- Date: Wed, 25 Feb 2026 09:03:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.765243
- Title: SF3D-RGB: Scene Flow Estimation from Monocular Camera and Sparse LiDAR
- Title(参考訳): SF3D-RGB:単眼カメラとスパースLiDARからのシーンフロー推定
- Authors: Rajai Alhimdiat, Ramy Battrawy, René Schuster, Didier Stricker, Wesam Ashour,
- Abstract要約: 本稿では,2次元単眼画像と3次元点雲を用いたスパースシーンフロー推定のためのディープラーニングアーキテクチャを提案する。
私たちのアーキテクチャはエンド・ツー・エンドのモデルで、まず各モダリティから情報を機能にエンコードし、それらを融合させます。
実験により,提案手法は単一モダリティ法より優れ,実世界のデータセット上でのシーンフローの精度が向上することが示された。
- 参考スコア(独自算出の注目度): 17.224692757126153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene flow estimation is an extremely important task in computer vision to support the perception of dynamic changes in the scene. For robust scene flow, learning-based approaches have recently achieved impressive results using either image-based or LiDAR-based modalities. However, these methods have tended to focus on the use of a single modality. To tackle these problems, we present a deep learning architecture, SF3D-RGB, that enables sparse scene flow estimation using 2D monocular images and 3D point clouds (e.g., acquired by LiDAR) as inputs. Our architecture is an end-to-end model that first encodes information from each modality into features and fuses them together. Then, the fused features enhance a graph matching module for better and more robust mapping matrix computation to generate an initial scene flow. Finally, a residual scene flow module further refines the initial scene flow. Our model is designed to strike a balance between accuracy and efficiency. Furthermore, experiments show that our proposed method outperforms single-modality methods and achieves better scene flow accuracy on real-world datasets while using fewer parameters compared to other state-of-the-art methods with fusion.
- Abstract(参考訳): シーンフロー推定は、シーンの動的変化の知覚を支援するために、コンピュータビジョンにおいて非常に重要なタスクである。
堅牢なシーンフローでは、画像ベースまたはLiDARベースのモダリティを使用して、学習ベースのアプローチが目覚ましい結果を得た。
しかし、これらの手法は単一のモダリティの使用に集中する傾向にある。
これらの問題に対処するために,2次元単眼画像と3次元点雲(例えばLiDARが取得)を入力としてスパースシーンフロー推定が可能な深層学習アーキテクチャSF3D-RGBを提案する。
私たちのアーキテクチャはエンド・ツー・エンドのモデルで、まず各モダリティから情報を機能にエンコードし、それらを融合させます。
そして、融合した特徴はグラフマッチングモジュールを拡張して、より良くより堅牢なマッピング行列計算を行い、初期シーンフローを生成する。
最後に、残留シーンフローモジュールは、初期シーンフローをさらに洗練する。
私たちのモデルは精度と効率のバランスをとるように設計されています。
さらに,本手法は単一モダリティ法より優れ,実際のデータセット上でのシーンフローの精度が向上することを示す。
関連論文リスト
- RobustSplat: Decoupling Densification and Dynamics for Transient-Free 3DGS [79.15416002879239]
3D Gaussian Splattingは、ノベルビュー合成と3Dモデリングにおけるリアルタイム、フォトリアリスティックレンダリングにおいて大きな注目を集めている。
既存の手法は、過渡的なオブジェクトに影響されたシーンを正確にモデル化するのに苦労し、描画された画像のアーティファクトに繋がる。
2つの重要な設計に基づく堅牢なソリューションであるRobustSplatを提案する。
論文 参考訳(メタデータ) (2025-06-03T11:13:48Z) - Dense Scene Reconstruction from Light-Field Images Affected by Rolling Shutter [1.856181262236876]
本稿では,2次元ガウススプラッティングをベースとした2段階の手法を提案し,点雲の定式化による「レンダリングと比較」の戦略を提案する。
第1段階では、サブアパーチャ画像のサブセットを用いて、シーンターゲット形状に関連するRS3D形状を動きまで推定する。
第2段階では、許容カメラ動作を推定して3次元形状の無知を算出する。
論文 参考訳(メタデータ) (2024-12-04T17:59:04Z) - Hierarchical Temporal Context Learning for Camera-based Semantic Scene Completion [57.232688209606515]
カメラによるセマンティックシーンの補完を改善するための,新たな時間的文脈学習パラダイムであるHTCLを提案する。
提案手法は,Semantic KITTIベンチマークで1st$をランク付けし,mIoUの点でLiDARベースの手法を超えている。
論文 参考訳(メタデータ) (2024-07-02T09:11:17Z) - RPEFlow: Multimodal Fusion of RGB-PointCloud-Event for Joint Optical
Flow and Scene Flow Estimation [43.358140897849616]
本稿では,RGB画像,ポイント雲,イベントを多段階多モード融合モデルであるRPEFlowに組み込む。
合成データと実データの両方の実験により、我々のモデルは既存の最先端技術よりも広いマージンで優れています。
論文 参考訳(メタデータ) (2023-09-26T17:23:55Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - Self-Supervised Multi-Frame Monocular Scene Flow [61.588808225321735]
自己監督学習に基づくマルチフレーム一眼的シーンフローネットワークを導入。
自己監督学習に基づく単眼的シーンフロー法における最新の精度を観察する。
論文 参考訳(メタデータ) (2021-05-05T17:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。