論文の概要: ExploreGS: a vision-based low overhead framework for 3D scene reconstruction
- arxiv url: http://arxiv.org/abs/2505.10578v1
- Date: Wed, 14 May 2025 02:57:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.17147
- Title: ExploreGS: a vision-based low overhead framework for 3D scene reconstruction
- Title(参考訳): ExploreGS:3Dシーン再構築のためのビジョンベース低オーバーヘッドフレームワーク
- Authors: Yunji Feng, Chengpu Yu, Fengrui Ran, Zhi Yang, Yinni Liu,
- Abstract要約: ExploreGSは、従来のライダーベースのポイントクラウド獲得プロセスを視覚モデルで置き換える。
このフレームワークはシーン探索とモデル再構成を統合し、リアルタイム処理機能を実現するためにBag-of-Words(BoW)モデルを活用する。
- 参考スコア(独自算出の注目度): 3.3612832966027857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a low-overhead, vision-based 3D scene reconstruction framework for drones, named ExploreGS. By using RGB images, ExploreGS replaces traditional lidar-based point cloud acquisition process with a vision model, achieving a high-quality reconstruction at a lower cost. The framework integrates scene exploration and model reconstruction, and leverags a Bag-of-Words(BoW) model to enable real-time processing capabilities, therefore, the 3D Gaussian Splatting (3DGS) training can be executed on-board. Comprehensive experiments in both simulation and real-world environments demonstrate the efficiency and applicability of the ExploreGS framework on resource-constrained devices, while maintaining reconstruction quality comparable to state-of-the-art methods.
- Abstract(参考訳): 本稿では,ExploreGSという,低オーバーヘッドで視覚に基づくドローン用3Dシーン再構築フレームワークを提案する。
RGBイメージを使用することで、ExploreGSは従来のライダーベースのポイントクラウド取得プロセスを視覚モデルに置き換え、低コストで高品質な再構築を実現する。
このフレームワークはシーン探索とモデル再構築を統合し,Bag-of-Words(BoW)モデルを利用してリアルタイム処理を実現する。
シミュレーションと実環境の両方における総合的な実験は、リソース制約されたデバイスに対するExploreGSフレームワークの効率と適用性を示しながら、最先端の手法に匹敵する再構築品質を維持している。
関連論文リスト
- Regist3R: Incremental Registration with Stereo Foundation Model [11.220655907305515]
コンピュータビジョンの分野では、マルチビュー3D再構成は不可欠だが難しい問題である。
本稿では,効率的かつスケーラブルな漸進的再構築に適した新しいステレオ基礎モデルであるRegist3Rを提案する。
カメラポーズ推定と3次元再構成のための公開データセット上でRegist3Rを評価する。
論文 参考訳(メタデータ) (2025-04-16T02:46:53Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - Zero123-6D: Zero-shot Novel View Synthesis for RGB Category-level 6D Pose Estimation [66.3814684757376]
本研究は,RGB 6Dのカテゴリレベルでのポーズ推定を向上するための拡散モデルに基づく新規ビュー合成器の実用性を示す最初の研究であるZero123-6Dを示す。
本手法は,データ要求の低減,ゼロショットカテゴリレベルの6Dポーズ推定タスクにおける深度情報の必要性の除去,およびCO3Dデータセットの実験により定量的に示された性能の向上を示す。
論文 参考訳(メタデータ) (2024-03-21T10:38:18Z) - GGRt: Towards Pose-free Generalizable 3D Gaussian Splatting in Real-time [112.32349668385635]
GGRtは、現実のカメラポーズの必要性を軽減する、一般化可能な新しいビュー合成のための新しいアプローチである。
最初のポーズフリーの一般化可能な3D-GSフレームワークとして、GGRtは$ge$5 FPSで、リアルタイムレンダリングは$ge$100 FPSで実現している。
論文 参考訳(メタデータ) (2024-03-15T09:47:35Z) - Bag of Views: An Appearance-based Approach to Next-Best-View Planning
for 3D Reconstruction [3.637651065605852]
Bag-of-Views (BoV) は、キャプチャされたビューにユーティリティを割り当てるのに使用される、完全な外観ベースのモデルである。
View Planning Toolbox(VPT)は、機械学習ベースのビュープランニングフレームワークのトレーニングとテストのための軽量パッケージである。
論文 参考訳(メタデータ) (2023-07-11T22:56:55Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Amodal 3D Reconstruction for Robotic Manipulation via Stability and
Connectivity [3.359622001455893]
学習に基づく3Dオブジェクト再構成により、3Dオブジェクトモデルの単一または少数ショット推定が可能となる。
既存の3D再構成技術は、通常、シャムファー距離またはボクセルIOUによって測定される視覚的再構成忠実度を最適化する。
本稿では,オブジェクト形状よりも先に安定性を導入するアモーダル3D再構成システムARMと,接続前の接続,マルチチャネル入力表現を提案する。
論文 参考訳(メタデータ) (2020-09-28T08:52:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。