論文の概要: PLANING: A Loosely Coupled Triangle-Gaussian Framework for Streaming 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2601.22046v2
- Date: Fri, 30 Jan 2026 08:26:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 14:22:45.415398
- Title: PLANING: A Loosely Coupled Triangle-Gaussian Framework for Streaming 3D Reconstruction
- Title(参考訳): PLANING: 3Dレコンストラクションをストリーミングする、疎結合な三角形・ガウスのフレームワーク
- Authors: Changjian Jiang, Kerui Ren, Xudong Li, Kaiwen Song, Linning Xu, Tao Lu, Junting Dong, Yu Zhang, Bo Dai, Mulin Yu,
- Abstract要約: ハイブリッド表現上に構築された効率的なオンザフライ再構築フレームワークであるPLANingを提案する。
Planing は PGSR よりも 18.52% の高密度メッシュ Chamfer-L2 を改善し、ARTDECO を 1.31 dB PSNR で上回り、ScanNetV2 のシーンを100秒以内に再構築する。
PLANingは、大規模なシーンモデリングやシミュレーション可能な環境を具体化するなど、幅広いダウンストリームアプリケーションに適している。
- 参考スコア(独自算出の注目度): 24.582810014546524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Streaming reconstruction from monocular image sequences remains challenging, as existing methods typically favor either high-quality rendering or accurate geometry, but rarely both. We present PLANING, an efficient on-the-fly reconstruction framework built on a hybrid representation that loosely couples explicit geometric primitives with neural Gaussians, enabling geometry and appearance to be modeled in a decoupled manner. This decoupling supports an online initialization and optimization strategy that separates geometry and appearance updates, yielding stable streaming reconstruction with substantially reduced structural redundancy. PLANING improves dense mesh Chamfer-L2 by 18.52% over PGSR, surpasses ARTDECO by 1.31 dB PSNR, and reconstructs ScanNetV2 scenes in under 100 seconds, over 5x faster than 2D Gaussian Splatting, while matching the quality of offline per-scene optimization. Beyond reconstruction quality, the structural clarity and computational efficiency of PLANING make it well suited for a broad range of downstream applications, such as enabling large-scale scene modeling and simulation-ready environments for embodied AI. Project page: https://city-super.github.io/PLANING/ .
- Abstract(参考訳): 既存の手法では高画質のレンダリングや正確な幾何学が好まれるが、どちらもまれである。
本稿では,ニューラルガウスと明示的幾何学的プリミティブを疎結合したハイブリッド表現上に構築された効率的なオンザフライ再構築フレームワークであるPLANingについて述べる。
この分離は、幾何と外観の更新を分離するオンライン初期化と最適化戦略をサポートし、構造的冗長性を著しく低減した安定したストリーミング再構成をもたらす。
PLANINGは、PGSRより18.52%の高密度メッシュChamfer-L2を改善し、ARTDECOを1.31dBのPSNRで上回り、ScanNetV2のシーンを100秒未満で再構築し、2Dガウススティングよりも5倍高速で、オフラインのシーンごとの最適化の質に適合する。
再構築品質以外にも、PLANingの構造的明快さと計算効率は、大規模なシーンモデリングやシミュレーション可能なAI環境の実現など、幅広いダウンストリームアプリケーションに適している。
プロジェクトページ: https://city-super.github.io/PLANING/。
関連論文リスト
- MetroGS: Efficient and Stable Reconstruction of Geometrically Accurate High-Fidelity Large-Scale Scenes [20.601722393809244]
複雑な都市環境における効率的で堅牢な復興のための新しいフレームワークであるMetroGSを紹介する。
本手法は,分散2次元ガウススプラッティング表現を基本基盤として構築する。
大規模な都市データセットの実験により、MetroGSはより優れた幾何学的精度、レンダリング品質を達成することが示された。
論文 参考訳(メタデータ) (2025-11-24T14:34:19Z) - Wonder3D++: Cross-domain Diffusion for High-fidelity 3D Generation from a Single Image [68.55613894952177]
単一ビュー画像から高忠実なテクスチャメッシュを効率的に生成する新しい手法である textbfWonder3D++ を導入する。
マルチビュー正規写像と対応するカラー画像を生成するクロスドメイン拡散モデルを提案する。
最後に,多視点2次元表現から高品質な表面を粗い方法でわずか3ドル程度で駆動するカスケード3次元メッシュ抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-11-03T17:24:18Z) - StreamGS: Online Generalizable Gaussian Splatting Reconstruction for Unposed Image Streams [32.91936079359693]
本稿では,非ポーズ画像ストリームのための3DGS再構成手法であるStreamGSを提案する。
StreamGSは、画像ストリームを3Dガウスストリームに変換する。
多様なデータセットの実験では、StreamGSは最適化ベースのアプローチと同等の品質を実現しているが、150倍高速であることが示された。
論文 参考訳(メタデータ) (2025-03-08T14:35:39Z) - Evolving High-Quality Rendering and Reconstruction in a Unified Framework with Contribution-Adaptive Regularization [27.509109317973817]
3D Gaussian Splatting (3DGS)は、高品質なレンダリングと高速な推論速度で注目されている。
従来の手法は主に幾何学的正則化に焦点を当てており、プリミティブベースのフレームワークやデュアルモデルフレームワークを含む一般的なアプローチがある。
本稿では,高画質表面再構成を実現するために,適応正規化を利用した統一モデルであるCarGSを提案する。
論文 参考訳(メタデータ) (2025-03-02T12:51:38Z) - MVSGaussian: Fast Generalizable Gaussian Splatting Reconstruction from Multi-View Stereo [54.00987996368157]
MVSGaussianは、Multi-View Stereo(MVS)から導かれる新しい一般化可能な3次元ガウス表現手法である。
MVSGaussianは、シーンごとにより良い合成品質でリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2024-05-20T17:59:30Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - RAVEN: Rethinking Adversarial Video Generation with Efficient Tri-plane Networks [93.18404922542702]
本稿では,長期的空間的および時間的依存関係に対処する新しいビデオ生成モデルを提案する。
提案手法は,3次元認識型生成フレームワークにインスパイアされた,明示的で単純化された3次元平面のハイブリッド表現を取り入れたものである。
我々のモデルは高精細度ビデオクリップを解像度256時間256$ピクセルで合成し、フレームレート30fpsで5ドル以上まで持続する。
論文 参考訳(メタデータ) (2024-01-11T16:48:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。