論文の概要: Plenodium: UnderWater 3D Scene Reconstruction with Plenoptic Medium Representation
- arxiv url: http://arxiv.org/abs/2505.21258v1
- Date: Tue, 27 May 2025 14:37:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.72307
- Title: Plenodium: UnderWater 3D Scene Reconstruction with Plenoptic Medium Representation
- Title(参考訳): Plenodium: Plenoptic Medium Representation を用いた水中3次元シーン再構成
- Authors: Changguanng Wu, Jiangxin Dong, Chengjian Li, Jinhui Tang,
- Abstract要約: Plenodiumは、オブジェクトと参加メディアの両方を共同でモデリングできる3D表現フレームワークである。
ビュー依存モデリングにのみ依存する既存の媒体表現とは対照的に,本手法では指向性情報と位置情報の両方を包含する。
実世界の水中データセットを用いた実験により,本手法は3次元再構成において大きな改善をもたらすことが示された。
- 参考スコア(独自算出の注目度): 31.47797579690604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Plenodium (plenoptic medium), an effective and efficient 3D representation framework capable of jointly modeling both objects and participating media. In contrast to existing medium representations that rely solely on view-dependent modeling, our novel plenoptic medium representation incorporates both directional and positional information through spherical harmonics encoding, enabling highly accurate underwater scene reconstruction. To address the initialization challenge in degraded underwater environments, we propose the pseudo-depth Gaussian complementation to augment COLMAP-derived point clouds with robust depth priors. In addition, a depth ranking regularized loss is developed to optimize the geometry of the scene and improve the ordinal consistency of the depth maps. Extensive experiments on real-world underwater datasets demonstrate that our method achieves significant improvements in 3D reconstruction. Furthermore, we conduct a simulated dataset with ground truth and the controllable scattering medium to demonstrate the restoration capability of our method in underwater scenarios. Our code and dataset are available at https://plenodium.github.io/.
- Abstract(参考訳): Plenodium (plenoptic medium) は、オブジェクトと参加メディアを共同でモデリングできる、効率的かつ効率的な3D表現フレームワークである。
ビュー依存モデリングにのみ依存する既存の媒体表現とは対照的に,我々は球面高調波符号化による方向情報と位置情報の両方を組み込んで,高精度な水中シーン再構築を実現している。
劣化した水中環境における初期化課題に対処するため,COLMAP由来の点雲を高度化するための擬似深度ガウス補間法を提案する。
さらに、シーンの形状を最適化し、奥行きマップの順序整合性を改善するために、奥行きランキング正則化ロスが開発された。
実世界の水中データセットに対する大規模な実験により,本手法は3次元再構成において大きな改善をもたらすことが示された。
さらに,地上の真実と制御可能な散乱媒質を用いてシミュレーションデータセットを作成し,水中シナリオにおける手法の復元能力を示す。
私たちのコードとデータセットはhttps://plenodium.github.io/.com/で公開されています。
関連論文リスト
- 3D-UIR: 3D Gaussian for Underwater 3D Scene Reconstruction via Physics-Based Appearance-Medium Decouplin [30.985414238960466]
水媒体効果から物体の外観を遠ざける物理ベースの枠組みを提案する。
提案手法は,高品質な新規ビュー合成と物理的に正確なシーン復元を実現する。
論文 参考訳(メタデータ) (2025-05-27T14:19:30Z) - RUSplatting: Robust 3D Gaussian Splatting for Sparse-View Underwater Scene Reconstruction [15.366193984872671]
本稿では,水中深部レンダリングの視覚的品質と精度を両立させる,ガウススプラッティングに基づくフレームワークを提案する。
水中減衰の物理によって導かれるRGBチャネルの分離学習を提案し,より正確な色復元を実現する。
また,深海コンテンツに不可欠なエッジを保ちながらノイズ低減を目的とした新たな損失関数も導入した。
論文 参考訳(メタデータ) (2025-05-21T16:42:15Z) - Decompositional Neural Scene Reconstruction with Generative Diffusion Prior [64.71091831762214]
完全な形状と詳細なテクスチャを持つ3次元シーンの分解的再構成は、下流の応用に興味深い。
近年のアプローチでは、この問題に対処するために意味的あるいは幾何学的正則化が取り入れられているが、制約の少ない領域では著しく劣化している。
本稿では,SDS(Score Distillation Sampling)の形で拡散先行値を用いたDP-Reconを提案し,新しい視点下で個々の物体の神経表現を最適化する。
論文 参考訳(メタデータ) (2025-03-19T02:11:31Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - Q-SLAM: Quadric Representations for Monocular SLAM [85.82697759049388]
四角形のレンズを通して体積表現を再現する。
我々は、RGB入力からノイズの深い深さ推定を正すために二次仮定を用いる。
本研究では,新たな二次分割変換器を導入し,二次情報を集約する。
論文 参考訳(メタデータ) (2024-03-12T23:27:30Z) - Metrically Scaled Monocular Depth Estimation through Sparse Priors for
Underwater Robots [0.0]
三角特徴量からのスパース深度測定を融合して深度予測を改善する深度学習モデルを定式化する。
このネットワークは、前方に見える水中データセットFLSeaで教師ありの方法で訓練されている。
この方法は、ラップトップGPUで160FPS、単一のCPUコアで7FPSで実行することで、リアルタイムのパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-25T16:32:31Z) - Depth-conditioned Dynamic Message Propagation for Monocular 3D Object
Detection [86.25022248968908]
モノラル3Dオブジェクト検出の問題を解決するために、コンテキストと奥行きを認識する特徴表現を学びます。
KITTIベンチマークデータセットにおける単眼的アプローチにおける最新の結果を示す。
論文 参考訳(メタデータ) (2021-03-30T16:20:24Z) - Depth Completion using Piecewise Planar Model [94.0808155168311]
深度マップは一連の学習された基底で表現することができ、閉じた解法で効率的に解ける。
しかし、この方法の1つの問題は、色境界が深さ境界と矛盾する場合にアーチファクトを生成することである。
私たちは、より厳密な深度回復モデルを実行します。
論文 参考訳(メタデータ) (2020-12-06T07:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。