論文の概要: FUSE-Flow: Scalable Real-Time Multi-View Point Cloud Reconstruction Using Confidence
- arxiv url: http://arxiv.org/abs/2602.01035v2
- Date: Thu, 05 Feb 2026 01:27:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 14:11:23.839152
- Title: FUSE-Flow: Scalable Real-Time Multi-View Point Cloud Reconstruction Using Confidence
- Title(参考訳): FUSE-Flow: 信頼性を利用したスケーラブルなリアルタイムマルチ視点クラウド再構築
- Authors: Chentian Sun,
- Abstract要約: リアルタイム多視点クラウド再構成は、3次元視覚と没入感のコア問題である。
本稿では,FUSE-Flowを提案する。FUSE-Flowはフレームワイドでステートレスで,線形でスケーラブルなクラウドストリーミング再構築フレームワークである。
実験により, オーバーラップ, 深さ不連続, 動的シーンにおける復元安定性と幾何学的忠実度の向上が示された。
- 参考スコア(独自算出の注目度): 1.3537117504260623
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Real-time multi-view point cloud reconstruction is a core problem in 3D vision and immersive perception, with wide applications in VR, AR, robotic navigation, digital twins, and computer interaction. Despite advances in multi-camera systems and high-resolution depth sensors, fusing large-scale multi-view depth observations into high-quality point clouds under strict real-time constraints remains challenging. Existing methods relying on voxel-based fusion, temporal accumulation, or global optimization suffer from high computational complexity, excessive memory usage, and limited scalability, failing to simultaneously achieve real-time performance, reconstruction quality, and multi-camera extensibility. We propose FUSE-Flow, a frame-wise, stateless, and linearly scalable point cloud streaming reconstruction framework. Each frame independently generates point cloud fragments, fused via two weights, measurement confidence and 3D distance consistency to suppress noise while preserving geometric details. For large-scale multi-camera efficiency, we introduce an adaptive spatial hashing-based weighted aggregation method: 3D space is adaptively partitioned by local point cloud density, representative points are selected per cell, and weighted fusion is performed to handle both sparse and dense regions. With GPU parallelization, FUSE-Flow achieves high-throughput, low-latency point cloud generation and fusion with linear complexity. Experiments demonstrate that the framework improves reconstruction stability and geometric fidelity in overlapping, depth-discontinuous, and dynamic scenes, while maintaining real-time frame rates on modern GPUs, verifying its effectiveness, robustness, and scalability.
- Abstract(参考訳): リアルタイムのマルチビューポイントクラウド再構築は、VR、AR、ロボットナビゲーション、デジタルツイン、コンピュータインタラクションなど、3Dビジョンと没入感の中核的な問題である。
マルチカメラシステムと高分解能深度センサーの進歩にもかかわらず、大規模多視点深度観測を厳密なリアルタイム制約の下で高品質な点雲に融合することは依然として困難である。
既存の方法では、ボクセルベースの融合、時間的蓄積、大域的な最適化は、高い計算複雑性、過剰なメモリ使用量、拡張性に悩まされており、リアルタイムのパフォーマンス、再構築品質、マルチカメラの拡張性を同時に達成できなかった。
本稿では,FUSE-Flowを提案する。FUSE-Flowはフレームワイドでステートレスで,線形でスケーラブルなクラウドストリーミング再構築フレームワークである。
各フレームは独立して点雲の破片を生成し、2つの重みで融合し、計測信頼性と3次元距離の一貫性を保ち、幾何学的詳細を保存しながらノイズを抑制する。
大規模なマルチカメラ効率を実現するため,3次元空間を局所点雲密度で適応的に分割し,代表点をセル毎に選択し,疎密領域と密領域の両方を扱うために重み付き融合を行う。
GPU並列化により、FUSE-Flowは高スループット、低レイテンシのポイントクラウド生成と線形複雑性による融合を実現する。
実験により、このフレームワークは、オーバーラップ、深さ不連続、ダイナミックなシーンにおける再構築の安定性と幾何学的忠実さを改善しながら、最新のGPU上でのリアルタイムフレームレートを維持し、その有効性、堅牢性、スケーラビリティを検証する。
関連論文リスト
- SPARK: Scalable Real-Time Point Cloud Aggregation with Multi-View Self-Calibration [1.3537117504260623]
SPARKは、リアルタイムマルチカメラポイントクラウド再構築フレームワークである。
カメラの数と線形にスケーリングしながら、ダイナミックなシーンで安定した点雲を生成する。
論文 参考訳(メタデータ) (2026-01-13T10:32:22Z) - Have We Scene It All? Scene Graph-Aware Deep Point Cloud Compression [18.40946383877556]
セマンティックシーングラフに基づくディープ圧縮フレームワークを提案する。
このフレームワークは最先端の圧縮速度を実現し,データサイズを最大98%削減することを示す。
マルチロボットのポーズグラフ最適化やマップマージといった下流アプリケーションをサポートする。
論文 参考訳(メタデータ) (2025-10-09T17:45:09Z) - A Continuous-Time Consistency Model for 3D Point Cloud Generation [0.6308539010172308]
点空間で直接3Dを合成する連続時間一貫性モデルであるConTiCoM-3Dを導入する。
この方法は、TrigFlowにインスパイアされた連続ノイズスケジュールと、Chamfer Distanceに基づく幾何損失を統合する。
ShapeNetベンチマークの実験では、ConTiCoM-3Dは、最先端の拡散モデルと潜時一貫性モデルとを品質と効率の両方で一致または比較している。
論文 参考訳(メタデータ) (2025-09-01T14:11:59Z) - Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - On Robust Cross-View Consistency in Self-Supervised Monocular Depth Estimation [56.97699793236174]
本論文では,2種類の堅牢なクロスビュー整合性について検討する。
深度特徴空間と3次元ボクセル空間の時間的コヒーレンスを自己教師付き単眼深度推定に利用した。
いくつかのアウトドアベンチマークの実験結果から,本手法は最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2022-09-19T03:46:13Z) - IDEA-Net: Dynamic 3D Point Cloud Interpolation via Deep Embedding
Alignment [58.8330387551499]
我々は、点方向軌跡(すなわち滑らかな曲線)の推定として問題を定式化する。
本稿では,学習した時間的一貫性の助けを借りて問題を解消する,エンドツーエンドのディープラーニングフレームワークであるIDEA-Netを提案する。
各種点群における本手法の有効性を実証し, 定量的かつ視覚的に, 最先端の手法に対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2022-03-22T10:14:08Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。