論文の概要: AONeuS: A Neural Rendering Framework for Acoustic-Optical Sensor Fusion
- arxiv url: http://arxiv.org/abs/2402.03309v1
- Date: Mon, 5 Feb 2024 18:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 14:08:55.324259
- Title: AONeuS: A Neural Rendering Framework for Acoustic-Optical Sensor Fusion
- Title(参考訳): AONeuS:音響光学センサフュージョンのためのニューラルネットワークフレームワーク
- Authors: Mohamad Qadri, Kevin Zhang, Akshay Hinduja, Michael Kaess, Adithya
Pediredla, Christopher A. Metzler
- Abstract要約: 水中の知覚と3次元表面の再構築は、建設、セキュリティ、海洋考古学、環境モニタリングにおける幅広い応用において難しい問題である。
本研究は,物理に基づく多モード音響-光学的ニューラルサーフェス再構成フレームワークの開発である。
これらの相補的なモダリティを融合させることで,本フレームワークは,高度に制限されたベースライン上での計測から高精度な高解像度3次元表面を再構築することができる。
- 参考スコア(独自算出の注目度): 26.83067771471808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater perception and 3D surface reconstruction are challenging problems
with broad applications in construction, security, marine archaeology, and
environmental monitoring. Treacherous operating conditions, fragile
surroundings, and limited navigation control often dictate that submersibles
restrict their range of motion and, thus, the baseline over which they can
capture measurements. In the context of 3D scene reconstruction, it is
well-known that smaller baselines make reconstruction more challenging. Our
work develops a physics-based multimodal acoustic-optical neural surface
reconstruction framework (AONeuS) capable of effectively integrating
high-resolution RGB measurements with low-resolution depth-resolved imaging
sonar measurements. By fusing these complementary modalities, our framework can
reconstruct accurate high-resolution 3D surfaces from measurements captured
over heavily-restricted baselines. Through extensive simulations and in-lab
experiments, we demonstrate that AONeuS dramatically outperforms recent
RGB-only and sonar-only inverse-differentiable-rendering--based surface
reconstruction methods. A website visualizing the results of our paper is
located at this address: https://aoneus.github.io/
- Abstract(参考訳): 水中の知覚と3次元表面の再構築は、建設、セキュリティ、海洋考古学、環境モニタリングにおける幅広い応用において難しい問題である。
不安定な操作条件、脆弱な環境、限られた航法制御は、潜水艇の動作範囲を制限し、測定値のベースラインを捉えることをしばしば指示する。
3次元シーン再構築の文脈では、より小さなベースラインが再構築をより困難にしているのはよく知られている。
本研究は,高分解能RGB計測と低分解能深度画像ソナー計測を効果的に統合できる物理ベースの多モード音響-光学ニューラルサーフェス再構成フレームワーク(AONeuS)を開発した。
これらの相補的なモダリティを融合させることで, 高精度な高解像度3次元表面の再構成が可能となる。
広範囲なシミュレーションと実験により, AONeuS は最近の RGB とソナーのみの逆微分可能な面再構成法を劇的に上回ることを示した。
論文の結果を視覚化するwebサイトがこのアドレスにある。 https://aoneus.github.io/
関連論文リスト
- PSDF: Prior-Driven Neural Implicit Surface Learning for Multi-view
Reconstruction [31.768161784030923]
このフレームワークは、事前訓練されたMVSネットワークとNISRモデルに固有の内部幾何学的先駆体から外部幾何学的先駆体を利用する。
Tanks and Templesデータセットの実験は、PSDFが複雑な制御されていないシーンで最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2024-01-23T13:30:43Z) - UniSDF: Unifying Neural Representations for High-Fidelity 3D
Reconstruction of Complex Scenes with Reflections [92.38975002642455]
大規模な複雑なシーンをリフレクションで再構成できる汎用3次元再構成手法UniSDFを提案する。
提案手法は,複雑な大規模シーンを細部と反射面で頑健に再構築することができる。
論文 参考訳(メタデータ) (2023-12-20T18:59:42Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid
Representation and Normal Prior Enhancement [53.10080345190996]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z) - Exploiting Multiple Priors for Neural 3D Indoor Reconstruction [15.282699095607594]
本研究では,大規模屋内環境の再現性を向上するために,複数の正規化戦略を活用するニューラル暗黙的モデリング手法を提案する。
実験結果から,本手法は屋内の挑戦的なシナリオにおいて最先端の3D再構成を実現することが示唆された。
論文 参考訳(メタデータ) (2023-09-13T15:23:43Z) - Incremental Dense Reconstruction from Monocular Video with Guided Sparse
Feature Volume Fusion [23.984073189849024]
本報告では, TSDF値のリアルタイムな特徴量に基づく高密度再構成手法を提案し, 新たな深部特徴量からTSDF値を推定する。
不確実性を認識したマルチビューステレオネットワークを利用して、スパース特徴量における物理表面の初期ボクセル位置を推定する。
提案手法は,多くの場合において,より細部でより完全な再構築が可能であることを示す。
論文 参考訳(メタデータ) (2023-05-24T09:06:01Z) - Looking Through the Glass: Neural Surface Reconstruction Against High
Specular Reflections [72.45512144682554]
暗黙的ニューラルレンダリングに基づく新しい表面再構成フレームワークNeuS-HSRを提案する。
NeuS-HSRでは、物体表面は暗黙の符号付き距離関数としてパラメータ化される。
我々は、NeuS-HSRが、HSRに対する高精度で堅牢なターゲット表面再構成において、最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-18T02:34:58Z) - Clean-NeRF: Reformulating NeRF to account for View-Dependent
Observations [67.54358911994967]
本稿では,複雑なシーンにおける3次元再構成と新しいビューレンダリングのためのクリーンネRFを提案する。
clean-NeRFはプラグインとして実装することができ、既存のNeRFベースのメソッドを追加入力なしですぐに利用することができる。
論文 参考訳(メタデータ) (2023-03-26T12:24:31Z) - MonoSDF: Exploring Monocular Geometric Cues for Neural Implicit Surface
Reconstruction [72.05649682685197]
最先端のニューラル暗黙法は、多くの入力ビューから単純なシーンの高品質な再構築を可能にする。
これは主に、十分な制約を提供していないRGB再構築損失の固有の曖昧さによって引き起こされる。
近年の単分子形状予測の分野での進歩に触発され, ニューラルな暗黙的表面再構成の改善にこれらの方法が役立つかを探究する。
論文 参考訳(メタデータ) (2022-06-01T17:58:15Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - HRBF-Fusion: Accurate 3D reconstruction from RGB-D data using on-the-fly
implicits [11.83399015126983]
高忠実度3Dオブジェクトやシーンの再構成は、基本的な研究課題である。
RGB-D融合の最近の進歩は、消費者レベルのRGB-Dカメラから3Dモデルを製造する可能性を示している。
既存のアプローチは、カメラ追跡における誤差の蓄積と再構成における歪みに悩まされている。
論文 参考訳(メタデータ) (2022-02-03T20:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。