論文の概要: PE3R: Perception-Efficient 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2503.07507v1
- Date: Mon, 10 Mar 2025 16:29:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 18:54:14.822012
- Title: PE3R: Perception-Efficient 3D Reconstruction
- Title(参考訳): PE3R : 知覚効率の良い3次元再構成
- Authors: Jie Hu, Shizun Wang, Xinchao Wang,
- Abstract要約: Perception-Efficient 3D Reconstruction (PE3R) は、精度と効率の両立を図った新しいフレームワークである。
このフレームワークは3次元のセマンティックフィールド再構成において最小9倍のスピードアップを実現し、認識精度と再現精度を大幅に向上させる。
- 参考スコア(独自算出の注目度): 54.730257992806116
- License:
- Abstract: Recent advancements in 2D-to-3D perception have significantly improved the understanding of 3D scenes from 2D images. However, existing methods face critical challenges, including limited generalization across scenes, suboptimal perception accuracy, and slow reconstruction speeds. To address these limitations, we propose Perception-Efficient 3D Reconstruction (PE3R), a novel framework designed to enhance both accuracy and efficiency. PE3R employs a feed-forward architecture to enable rapid 3D semantic field reconstruction. The framework demonstrates robust zero-shot generalization across diverse scenes and objects while significantly improving reconstruction speed. Extensive experiments on 2D-to-3D open-vocabulary segmentation and 3D reconstruction validate the effectiveness and versatility of PE3R. The framework achieves a minimum 9-fold speedup in 3D semantic field reconstruction, along with substantial gains in perception accuracy and reconstruction precision, setting new benchmarks in the field. The code is publicly available at: https://github.com/hujiecpp/PE3R.
- Abstract(参考訳): 近年の2次元から3次元への認識の進歩は2次元画像からの3次元シーンの理解を著しく改善した。
しかし、既存の手法では、シーン間の一般化の制限、最適下認識の精度、再現速度の遅さなど、重要な課題に直面している。
これらの制約に対処するために,精度と効率の両立を図った新しいフレームワークである知覚効率3Dレコンストラクション(PE3R)を提案する。
PE3Rは3Dセマンティックフィールドの迅速な再構築を可能にするためにフィードフォワードアーキテクチャを採用している。
このフレームワークは、さまざまなシーンやオブジェクトに対して堅牢なゼロショットの一般化を示しながら、再構築速度を大幅に改善する。
2次元から3次元のオープンボキャブラリセグメンテーションと3次元再構成に関する広範囲な実験により,PE3Rの有効性と汎用性が確認された。
このフレームワークは、3次元のセマンティックフィールド再構成において最低9倍のスピードアップを達成するとともに、認識精度と再構成精度を大幅に向上させ、新しいベンチマークをフィールドに設定する。
コードは、https://github.com/hujiecpp/PE3R.comで公開されている。
関連論文リスト
- Fast3R: Towards 3D Reconstruction of 1000+ Images in One Forward Pass [68.78222900840132]
我々は,DUSt3Rに並列に複数のビューを処理することで,効率よくスケーラブルな3D再構成を実現する新しい多視点一般化であるFast3Rを提案する。
Fast3Rは最先端のパフォーマンスを示し、推論速度とエラーの蓄積が大幅に改善された。
論文 参考訳(メタデータ) (2025-01-23T18:59:55Z) - DuoLift-GAN:Reconstructing CT from Single-view and Biplanar X-Rays with Generative Adversarial Networks [1.3812010983144802]
本稿では,DuoLift Generative Adversarial Networks (DuoLift-GAN)を紹介する。
これらの3D出力は統合された3D特徴マップにマージされ、完全な3D胸部ボリュームにデコードされ、よりリッチな3D情報キャプチャを可能にする。
論文 参考訳(メタデータ) (2024-11-12T17:11:18Z) - G3R: Gradient Guided Generalizable Reconstruction [39.198327570559684]
大規模シーンにおける高品質な3Dシーン表現を効率よく予測できる一般化可能な再構成手法であるG3Rを導入する。
都市走行とドローンのデータセットの実験では、G3Rは様々な大きなシーンをまたがって一般化し、再建プロセスを少なくとも10倍加速している。
論文 参考訳(メタデータ) (2024-09-28T16:54:16Z) - EPRecon: An Efficient Framework for Real-Time Panoptic 3D Reconstruction from Monocular Video [6.236130301507863]
EPReconは,効率的なリアルタイムパノプティカル3D再構成フレームワークである。
本稿では,3次元ボリュームのシーン深度を直接推定する軽量モジュールを提案する。
さらに、占有されたボクセルからよりリッチなパノプティクス特徴を推測するために、EPReconはボクセル特徴と対応する画像特徴の両方からパノプティクス特徴を抽出する。
論文 参考訳(メタデータ) (2024-09-03T11:40:31Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - FineRecon: Depth-aware Feed-forward Network for Detailed 3D
Reconstruction [13.157400338544177]
ポーズ画像からの3次元再構成に関する最近の研究は、深層ニューラルネットワークを用いてシーンレベルの3次元幾何を直接推定できることを実証している。
推論に基づく3次元再構成の忠実度を改善するための有効な3つの方法を提案する。
提案手法はスムーズかつ高精度な再構成を行い,多深度および3次元再構成の指標において顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-04-04T02:50:29Z) - PETRv2: A Unified Framework for 3D Perception from Multi-Camera Images [105.29493158036105]
PETRv2は、多視点画像からの3D知覚のための統一されたフレームワークである。
PETRの3次元位置埋め込みを時間的モデリングのために拡張する。
PETRv2は3Dオブジェクト検出とBEVセグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-02T19:13:03Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。