論文の概要: PE3R: Perception-Efficient 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2503.07507v1
- Date: Mon, 10 Mar 2025 16:29:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 20:09:45.039274
- Title: PE3R: Perception-Efficient 3D Reconstruction
- Title(参考訳): PE3R : 知覚効率の良い3次元再構成
- Authors: Jie Hu, Shizun Wang, Xinchao Wang,
- Abstract要約: Perception-Efficient 3D Reconstruction (PE3R) は、精度と効率の両立を図った新しいフレームワークである。
このフレームワークは3次元のセマンティックフィールド再構成において最小9倍のスピードアップを実現し、認識精度と再現精度を大幅に向上させる。
- 参考スコア(独自算出の注目度): 54.730257992806116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in 2D-to-3D perception have significantly improved the understanding of 3D scenes from 2D images. However, existing methods face critical challenges, including limited generalization across scenes, suboptimal perception accuracy, and slow reconstruction speeds. To address these limitations, we propose Perception-Efficient 3D Reconstruction (PE3R), a novel framework designed to enhance both accuracy and efficiency. PE3R employs a feed-forward architecture to enable rapid 3D semantic field reconstruction. The framework demonstrates robust zero-shot generalization across diverse scenes and objects while significantly improving reconstruction speed. Extensive experiments on 2D-to-3D open-vocabulary segmentation and 3D reconstruction validate the effectiveness and versatility of PE3R. The framework achieves a minimum 9-fold speedup in 3D semantic field reconstruction, along with substantial gains in perception accuracy and reconstruction precision, setting new benchmarks in the field. The code is publicly available at: https://github.com/hujiecpp/PE3R.
- Abstract(参考訳): 近年の2次元から3次元への認識の進歩は2次元画像からの3次元シーンの理解を著しく改善した。
しかし、既存の手法では、シーン間の一般化の制限、最適下認識の精度、再現速度の遅さなど、重要な課題に直面している。
これらの制約に対処するために,精度と効率の両立を図った新しいフレームワークである知覚効率3Dレコンストラクション(PE3R)を提案する。
PE3Rは3Dセマンティックフィールドの迅速な再構築を可能にするためにフィードフォワードアーキテクチャを採用している。
このフレームワークは、さまざまなシーンやオブジェクトに対して堅牢なゼロショットの一般化を示しながら、再構築速度を大幅に改善する。
2次元から3次元のオープンボキャブラリセグメンテーションと3次元再構成に関する広範囲な実験により,PE3Rの有効性と汎用性が確認された。
このフレームワークは、3次元のセマンティックフィールド再構成において最低9倍のスピードアップを達成するとともに、認識精度と再構成精度を大幅に向上させ、新しいベンチマークをフィールドに設定する。
コードは、https://github.com/hujiecpp/PE3R.comで公開されている。
関連論文リスト
- Ross3D: Reconstructive Visual Instruction Tuning with 3D-Awareness [73.72335146374543]
本稿では,3次元視覚指導を訓練手順に組み込んだ3次元視覚指導法(Ross3D)について紹介する。
Ross3Dは様々な3Dシーン理解ベンチマークで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-04-02T16:59:55Z) - Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models [65.90387371072413]
本稿では,3次元再構成と新規ビュー合成を向上する新しいパイプラインであるDifix3D+を紹介する。
このアプローチのコアとなるのは、レンダリングされた新規ビューにおけるアーティファクトの強化と削除のためにトレーニングされた、単一ステップのイメージ拡散モデルであるDifixです。
論文 参考訳(メタデータ) (2025-03-03T17:58:33Z) - Fast3R: Towards 3D Reconstruction of 1000+ Images in One Forward Pass [68.78222900840132]
我々は,DUSt3Rに並列に複数のビューを処理することで,効率よくスケーラブルな3D再構成を実現する新しい多視点一般化であるFast3Rを提案する。
Fast3Rは最先端のパフォーマンスを示し、推論速度とエラーの蓄積が大幅に改善された。
論文 参考訳(メタデータ) (2025-01-23T18:59:55Z) - DuoLift-GAN:Reconstructing CT from Single-view and Biplanar X-Rays with Generative Adversarial Networks [1.3812010983144802]
本稿では,DuoLift Generative Adversarial Networks (DuoLift-GAN)を紹介する。
これらの3D出力は統合された3D特徴マップにマージされ、完全な3D胸部ボリュームにデコードされ、よりリッチな3D情報キャプチャを可能にする。
論文 参考訳(メタデータ) (2024-11-12T17:11:18Z) - G3R: Gradient Guided Generalizable Reconstruction [39.198327570559684]
大規模シーンにおける高品質な3Dシーン表現を効率よく予測できる一般化可能な再構成手法であるG3Rを導入する。
都市走行とドローンのデータセットの実験では、G3Rは様々な大きなシーンをまたがって一般化し、再建プロセスを少なくとも10倍加速している。
論文 参考訳(メタデータ) (2024-09-28T16:54:16Z) - EPRecon: An Efficient Framework for Real-Time Panoptic 3D Reconstruction from Monocular Video [6.236130301507863]
EPReconは,効率的なリアルタイムパノプティカル3D再構成フレームワークである。
本稿では,3次元ボリュームのシーン深度を直接推定する軽量モジュールを提案する。
さらに、占有されたボクセルからよりリッチなパノプティクス特徴を推測するために、EPReconはボクセル特徴と対応する画像特徴の両方からパノプティクス特徴を抽出する。
論文 参考訳(メタデータ) (2024-09-03T11:40:31Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。