論文の概要: Aquatic-GS: A Hybrid 3D Representation for Underwater Scenes
- arxiv url: http://arxiv.org/abs/2411.00239v1
- Date: Thu, 31 Oct 2024 22:24:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:40:22.428513
- Title: Aquatic-GS: A Hybrid 3D Representation for Underwater Scenes
- Title(参考訳): Aquatic-GS:水中シーンのハイブリッド3D表現
- Authors: Shaohua Liu, Junzhe Lu, Zuoya Gu, Jiajun Li, Yue Deng,
- Abstract要約: 本研究では,水中の物体と水媒体の両方を効果的に表現するハイブリッド3D表現手法であるAquatic-GSを提案する。
具体的には、暗黙的に水パラメータをモデル化するニューラルウォーターフィールド(NWF)を構築し、最新の3Dガウススプラッティング(3DGS)を拡張してオブジェクトを明示的にモデル化する。
両方のコンポーネントは、複雑な水中シーンを表現するために、物理学に基づく水中画像形成モデルを介して統合される。
- 参考スコア(独自算出の注目度): 6.549998173302729
- License:
- Abstract: Representing underwater 3D scenes is a valuable yet complex task, as attenuation and scattering effects during underwater imaging significantly couple the information of the objects and the water. This coupling presents a significant challenge for existing methods in effectively representing both the objects and the water medium simultaneously. To address this challenge, we propose Aquatic-GS, a hybrid 3D representation approach for underwater scenes that effectively represents both the objects and the water medium. Specifically, we construct a Neural Water Field (NWF) to implicitly model the water parameters, while extending the latest 3D Gaussian Splatting (3DGS) to model the objects explicitly. Both components are integrated through a physics-based underwater image formation model to represent complex underwater scenes. Moreover, to construct more precise scene geometry and details, we design a Depth-Guided Optimization (DGO) mechanism that uses a pseudo-depth map as auxiliary guidance. After optimization, Aquatic-GS enables the rendering of novel underwater viewpoints and supports restoring the true appearance of underwater scenes, as if the water medium were absent. Extensive experiments on both simulated and real-world datasets demonstrate that Aquatic-GS surpasses state-of-the-art underwater 3D representation methods, achieving better rendering quality and real-time rendering performance with a 410x increase in speed. Furthermore, regarding underwater image restoration, Aquatic-GS outperforms representative dewatering methods in color correction, detail recovery, and stability. Our models, code, and datasets can be accessed at https://aquaticgs.github.io.
- Abstract(参考訳): 水中の3Dシーンの表現は、水中イメージングにおける減衰と散乱の影響が、物体と水の情報を著しく混ざっているため、有用だが複雑な作業である。
この結合は、オブジェクトと水媒体の両方を同時に効果的に表現する既存の手法にとって重要な課題である。
この課題に対処するために,水中シーンと水媒体の両方を効果的に表現するハイブリッド3D表現アプローチであるAquatic-GSを提案する。
具体的には、暗黙的に水パラメータをモデル化するニューラルウォーターフィールド(NWF)を構築し、最新の3Dガウススプラッティング(3DGS)を拡張してオブジェクトを明示的にモデル化する。
両方のコンポーネントは、複雑な水中シーンを表現するために、物理学に基づく水中画像形成モデルを介して統合される。
さらに,より精密なシーン形状と細部を構築するために,擬似深度マップを補助ガイダンスとして用いたDGO機構を設計する。
最適化後、Aquatic-GSは新たな水中視点のレンダリングを可能にし、水媒体が欠如しているかのように水中シーンの真の外観の復元をサポートする。
シミュレーションと実世界の両方のデータセットに対する大規模な実験により、Aquatic-GSは最先端の水中3D表現手法を超越し、より優れたレンダリング品質と410倍のスピードでリアルタイムレンダリング性能を実現している。
さらに,水中画像の復元に関して,Aquatic-GSは,色補正,詳細回復,安定性において代表的脱水法より優れていた。
私たちのモデル、コード、データセットはhttps://aquaticgs.github.io.comでアクセスできます。
関連論文リスト
- AquaFuse: Waterbody Fusion for Physics Guided View Synthesis of Underwater Scenes [6.535472265307327]
水中画像中の水体特性を合成する物理法であるAquaFuseについて紹介する。
AquaFused画像は94%以上の奥行き一貫性と90-95%の構造的類似性を保っていることがわかった。
論文 参考訳(メタデータ) (2024-11-02T03:20:06Z) - UW-SDF: Exploiting Hybrid Geometric Priors for Neural SDF Reconstruction from Underwater Multi-view Monocular Images [63.32490897641344]
ニューラルSDFに基づく多視点水中画像から対象物を再構成するフレームワークを提案する。
再建過程を最適化するためのハイブリッドな幾何学的先行手法を導入し、神経SDF再建の質と効率を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-10T16:33:56Z) - SeaSplat: Representing Underwater Scenes with 3D Gaussian Splatting and a Physically Grounded Image Formation Model [11.57677379828992]
本研究では,最近の3次元放射場の発展を生かした水中シーンのリアルタイムレンダリングを可能にするSeaSplatを紹介する。
SeaSplatを、アメリカ領ヴァージン諸島の水中車両が収集したSeaThru-NeRFデータセットの現実世界のシーンに適用する。
水中画像形成はシーン構造を学習し, 深度マップを改良し, 3次元ガウス表現の活用による計算精度の向上を図った。
論文 参考訳(メタデータ) (2024-09-25T20:45:19Z) - FAFA: Frequency-Aware Flow-Aided Self-Supervision for Underwater Object Pose Estimation [65.01601309903971]
無人水中車両(UUV)の6次元ポーズ推定のための周波数認識フロー支援フレームワークであるFAFAを紹介する。
我々のフレームワークは、3DモデルとRGB画像のみに依存しており、実際のポーズアノテーションや奥行きのような非モダリティデータの必要性を軽減しています。
本研究では,一般的な水中オブジェクトポーズベンチマークにおけるFAFAの有効性を評価し,最先端手法と比較して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-25T03:54:01Z) - Enhancing Underwater Imaging with 4-D Light Fields: Dataset and Method [77.80712860663886]
4次元光場(LF)は、光吸収、散乱、その他の課題に悩まされる水中イメージングを強化する。
水中4次元LF画像強調と深度推定のためのプログレッシブフレームワークを提案する。
学習手法の定量的評価と教師あり訓練のための,最初の4次元LFに基づく水中画像データセットを構築した。
論文 参考訳(メタデータ) (2024-08-30T15:06:45Z) - Diving into Underwater: Segment Anything Model Guided Underwater Salient Instance Segmentation and A Large-scale Dataset [60.14089302022989]
水中視覚タスクは複雑な水中状況のため、しばしばセグメンテーションの精度が低い。
第1次大規模水中塩分分節データセット(USIS10K)を構築した。
本研究では,水中ドメインに特化してセグメンツ・ア・シング・モデル(USIS-SAM)に基づく水中塩分・インスタンス・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-10T06:17:33Z) - Physics-Inspired Synthesized Underwater Image Dataset [9.959844922120528]
PHISWIDは、物理にインスパイアされた画像合成による水中画像処理の強化に適したデータセットである。
以上の結果から,PHISWIDでトレーニングを行う場合の基本的U-Netアーキテクチャでさえ,水中画像強調において既存の手法よりも大幅に優れていたことが判明した。
我々はPHISWIDを公開し、水中イメージング技術の進歩に重要なリソースを提供する。
論文 参考訳(メタデータ) (2024-04-05T10:23:10Z) - Ghost on the Shell: An Expressive Representation of General 3D Shapes [97.76840585617907]
リアルな素材と照明で高速な物理ベースのレンダリングを可能にするので、メッシュは魅力的だ。
近年の3次元形状の再構成と統計的モデリングの研究は、メッシュをトポロジカルに非フレキシブルであると批判している。
我々は水密面上の多様体符号距離場を定義することにより開曲面をパラメータ化する。
G-Shellは、非水密メッシュ再構築および生成タスクにおける最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-10-23T17:59:52Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - WaterNeRF: Neural Radiance Fields for Underwater Scenes [6.161668246821327]
我々は、物理インフォームド深度推定と色補正を可能にするために、ニューラルレイディアンス場(NeRF)の最先端技術を進めた。
提案手法であるWaterNeRFは,水中画像形成のための物理モデルを用いてパラメータを推定する。
劣化した画像と修正された水中画像と、シーンの深い深さの新たなビューを作成できる。
論文 参考訳(メタデータ) (2022-09-27T00:53:26Z) - Underwater Light Field Retention : Neural Rendering for Underwater
Imaging [6.22867695581195]
水中画像レンダリングは、指定されたクリーンな画像から本物の水中画像を生成することを目的としている。
本稿では,UWNR(Underwater Neural Rendering)と呼ばれる水中画像のニューラルネットワークレンダリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T14:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。