論文の概要: Fast Underwater Scene Reconstruction using Multi-View Stereo and Physical Imaging
- arxiv url: http://arxiv.org/abs/2501.11884v1
- Date: Tue, 21 Jan 2025 04:35:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:22:23.523892
- Title: Fast Underwater Scene Reconstruction using Multi-View Stereo and Physical Imaging
- Title(参考訳): 多視点ステレオと物理画像を用いた高速水中シーン再構成
- Authors: Shuyi Hu, Qi Liu,
- Abstract要約: 本研究では,マルチビューステレオ吸収(MVS)と物理に基づく水中画像形成モデルを統合する新しい手法を提案する。
媒体を利用して媒体パラメータを推定し、レンダリング用の色と組み合わせることで、水中シーンの真の色を復元する。
実験結果から, 散乱媒体における新規ビューの高品質な合成, 媒体の除去によるビューの復元, レンダリング精度, トレーニング効率において, 既存の手法よりも優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 5.676974245780037
- License:
- Abstract: Underwater scene reconstruction poses a substantial challenge because of the intricate interplay between light and the medium, resulting in scattering and absorption effects that make both depth estimation and rendering more complex. While recent Neural Radiance Fields (NeRF) based methods for underwater scenes achieve high-quality results by modeling and separating the scattering medium, they still suffer from slow training and rendering speeds. To address these limitations, we propose a novel method that integrates Multi-View Stereo (MVS) with a physics-based underwater image formation model. Our approach consists of two branches: one for depth estimation using the traditional cost volume pipeline of MVS, and the other for rendering based on the physics-based image formation model. The depth branch improves scene geometry, while the medium branch determines the scattering parameters to achieve precise scene rendering. Unlike traditional MVSNet methods that rely on ground-truth depth, our method does not necessitate the use of depth truth, thus allowing for expedited training and rendering processes. By leveraging the medium subnet to estimate the medium parameters and combining this with a color MLP for rendering, we restore the true colors of underwater scenes and achieve higher-fidelity geometric representations. Experimental results show that our method enables high-quality synthesis of novel views in scattering media, clear views restoration by removing the medium, and outperforms existing methods in rendering quality and training efficiency.
- Abstract(参考訳): 光と媒体の間の複雑な相互作用により、深度推定とレンダリングの両方を複雑にする散乱や吸収効果が生じるため、水中のシーンの再構築は重大な課題となる。
近年のNeural Radiance Fields (NeRF) を用いた水中撮影手法は散乱媒質のモデリングと分離によって高品質な結果が得られるが、それでも遅い訓練とレンダリング速度に悩まされている。
これらの制約に対処するために,マルチビューステレオ(MVS)と物理に基づく水中画像形成モデルを統合する新しい手法を提案する。
提案手法は,MVSの従来のコストボリュームパイプラインを用いた深度推定法と,物理に基づく画像形成モデルに基づくレンダリング法とからなる。
深度分岐はシーン形状を改善し、中分枝は散乱パラメータを決定して正確なシーンレンダリングを実現する。
地中深度に依存した従来のMVSNet法とは異なり,本手法では深度真理を必要とせず,高速なトレーニングとレンダリングが可能である。
媒体サブネットを利用して媒体パラメータを推定し、これをレンダリング用の色MLPと組み合わせることで、水中のシーンの真の色を復元し、高忠実度な幾何学的表現を実現する。
実験結果から, 散乱媒体における新規ビューの高品質な合成, 媒体の除去によるビューの復元, レンダリング精度, トレーニング効率において, 既存の手法よりも優れていたことが示唆された。
関連論文リスト
- Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - A Physical Model-Guided Framework for Underwater Image Enhancement and Depth Estimation [19.204227769408725]
既存の水中画像強調手法では、深度や対光といった画像モデルパラメータを正確に推定することができない。
先進的なUIEモデルとDeep Degradation Modelを併用したモデル誘導フレームワークを提案する。
本フレームワークは水中の多様なシーンにまたがって顕著な拡張効果をもたらす。
論文 参考訳(メタデータ) (2024-07-05T03:10:13Z) - FlowDepth: Decoupling Optical Flow for Self-Supervised Monocular Depth Estimation [8.78717459496649]
本稿では,ダイナミックモーションフローモジュール (DMFM) が機構ベースのアプローチで光学フローを分離し,動的領域をワープし,ミスマッチ問題を解くフローDepthを提案する。
高フレック領域と低テクスチャ領域による光度誤差の不公平性については,入力と損失レベルでそれぞれDepth-Cue-Aware Blur(DCABlur)とCost-Volumeの空間損失を用いて解決する。
論文 参考訳(メタデータ) (2024-03-28T10:31:23Z) - DepthFM: Fast Monocular Depth Estimation with Flow Matching [22.206355073676082]
現在の識別的深さ推定法は、しばしばぼやけた人工物を生成するが、生成的アプローチはノイズ・ツー・ディープ・トランスポートの曲率によるサンプリングが遅い。
本手法は,画像と深度分布間の直接輸送として深度推定をフレーミングすることで,これらの課題に対処する。
提案手法は, 複雑な自然シーンの標準ベンチマークにおいて, サンプリング効率を向上し, 学習に最小限の合成データしか必要とせず, 競争力のあるゼロショット性能を実現する。
論文 参考訳(メタデータ) (2024-03-20T17:51:53Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - Deep Learning Methods for Calibrated Photometric Stereo and Beyond [86.57469194387264]
光度ステレオは、さまざまなシェーディングキューを持つ複数の画像から物体の表面の正常性を回復する。
深層学習法は、非ランベルト面に対する測光ステレオの文脈において強力な能力を示している。
論文 参考訳(メタデータ) (2022-12-16T11:27:44Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。