論文の概要: Gaussian Splashing: Direct Volumetric Rendering Underwater
- arxiv url: http://arxiv.org/abs/2411.19588v1
- Date: Fri, 29 Nov 2024 10:04:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:19:54.208297
- Title: Gaussian Splashing: Direct Volumetric Rendering Underwater
- Title(参考訳): ガウシアン・スプラッシュ:水中の直接ボリュームレンダリング
- Authors: Nir Mualem, Roy Amoyal, Oren Freifeld, Derya Akkaynak,
- Abstract要約: 本稿では,新しい水中シーンを140FPSでレンダリングし,再現に数分しかかからない新しい手法を提案する。
本手法は3DGSの強度と速度を画像形成モデルと統合し,散乱を捕捉する。
他の方法よりもはるかに明確で、再構成された画像や描画された画像が劇的に改善されている。
- 参考スコア(独自算出の注目度): 6.2122699483618
- License:
- Abstract: In underwater images, most useful features are occluded by water. The extent of the occlusion depends on imaging geometry and can vary even across a sequence of burst images. As a result, 3D reconstruction methods robust on in-air scenes, like Neural Radiance Field methods (NeRFs) or 3D Gaussian Splatting (3DGS), fail on underwater scenes. While a recent underwater adaptation of NeRFs achieved state-of-the-art results, it is impractically slow: reconstruction takes hours and its rendering rate, in frames per second (FPS), is less than 1. Here, we present a new method that takes only a few minutes for reconstruction and renders novel underwater scenes at 140 FPS. Named Gaussian Splashing, our method unifies the strengths and speed of 3DGS with an image formation model for capturing scattering, introducing innovations in the rendering and depth estimation procedures and in the 3DGS loss function. Despite the complexities of underwater adaptation, our method produces images at unparalleled speeds with superior details. Moreover, it reveals distant scene details with far greater clarity than other methods, dramatically improving reconstructed and rendered images. We demonstrate results on existing datasets and a new dataset we have collected. Additional visual results are available at: https://bgu-cs-vil.github.io/gaussiansplashingUW.github.io/ .
- Abstract(参考訳): 水中画像では、最も有用な特徴は水に閉じ込められている。
閉塞の程度は画像幾何学に依存しており、バースト画像の連続でも変化する。
その結果,ニューラル・レージアン・フィールド法(NeRF)や3Dガウス・スプレイティング(3DGS)など,水中のシーンで頑丈な3D再構成手法が失敗した。
最近の水中でのNeRFの適応は最先端の結果を得たが、非常に遅く、再構築には数時間かかり、フレーム毎秒(FPS)のレンダリングレートは1。
本稿では,新しい水中シーンを140FPSでレンダリングする手法を提案する。
ガウシアン・スプラッシュ法(ガウシアン・スプラッシュ)と呼ばれるこの手法は,散乱を捕捉する画像形成モデルと3DGSの強度と速度を統一し,レンダリング・深さ推定法や3DGS損失関数の革新を導入する。
水中適応の複雑さにもかかわらず,本手法はより詳細な非並列速度で画像を生成する。
さらに、他の方法よりもはるかに明快な遠隔シーンの詳細を明らかにし、再構成画像や描画画像を劇的に改善する。
既存のデータセットと、収集した新しいデータセットについて、その結果を示します。
その他のビジュアルな結果については、https://bgu-cs-vil.github.io/gaussiansplashingUW.github.io/を参照してください。
関連論文リスト
- DehazeGS: Seeing Through Fog with 3D Gaussian Splatting [17.119969983512533]
DehazeGSは,霧のない背景をメディアから分解・レンダリングできる手法である。
合成と実世界の霧のデータセットの実験は、DehazeGSが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-01-07T09:47:46Z) - Speedy-Splat: Fast 3D Gaussian Splatting with Sparse Pixels and Sparse Primitives [60.217580865237835]
3D Gaussian Splatting (3D-GS)は、3D Gaussian のパラメトリック点雲としてシーンをモデル化することで、新しいビューをリアルタイムにレンダリングすることのできる最近の3Dシーン再構築技術である。
3D-GSでは,レンダリング速度,モデルサイズ,トレーニング時間の大幅な改善を実現し,2つの重要な非効率性に対処する。
我々のSpeedy-Splatアプローチはこれらのテクニックを組み合わせることで、Mip-NeRF 360、Tamps & Temples、Deep Blendingのデータセットから、平均レンダリング速度を6.71ドル(約6万6000円)で加速します。
論文 参考訳(メタデータ) (2024-11-30T20:25:56Z) - SeaSplat: Representing Underwater Scenes with 3D Gaussian Splatting and a Physically Grounded Image Formation Model [11.57677379828992]
本研究では,最近の3次元放射場の発展を生かした水中シーンのリアルタイムレンダリングを可能にするSeaSplatを紹介する。
SeaSplatを、アメリカ領ヴァージン諸島の水中車両が収集したSeaThru-NeRFデータセットの現実世界のシーンに適用する。
水中画像形成はシーン構造を学習し, 深度マップを改良し, 3次元ガウス表現の活用による計算精度の向上を図った。
論文 参考訳(メタデータ) (2024-09-25T20:45:19Z) - WaterSplatting: Fast Underwater 3D Scene Reconstruction Using Gaussian Splatting [39.58317527488534]
本研究では,水中データ処理を効果的に行うために,ボリュームレンダリングを3DGSで融合する手法を提案する。
提案手法は,海底シースルー-ネRFデータセットのレンダリング品質において,最先端のNeRF法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-15T15:16:49Z) - RecGS: Removing Water Caustic with Recurrent Gaussian Splatting [13.87415686123919]
水の因果関係は浅海域の海底画像データでよく見られる。
画像から因果パターンを取り除く従来の方法は、注釈付きデータセットで2Dフィルタリングや事前トレーニングに依存することが多い。
本稿では,今日のフォトリアリスティックな3D再構成技術を活用したRecurrent Gaussian Splatting(RecGS)を提案する。
論文 参考訳(メタデータ) (2024-07-14T20:24:44Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - BAD-Gaussians: Bundle Adjusted Deblur Gaussian Splatting [8.380954205255104]
BAD-Gaussianは、不正確なカメラのポーズで、激しい動きをブラインドした画像を処理するための新しいアプローチである。
提案手法は,従来の最先端のデブルーニューラルレンダリング手法と比較して,優れたレンダリング品質を実現する。
論文 参考訳(メタデータ) (2024-03-18T14:43:04Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Splatter Image: Ultra-Fast Single-View 3D Reconstruction [67.96212093828179]
Splatter ImageはGaussian Splattingをベースにしており、複数の画像から3Dシーンを高速かつ高品質に再現することができる。
テスト時に38FPSでフィードフォワードで再構成を行うニューラルネットワークを学習する。
いくつかの総合、実、マルチカテゴリ、大規模ベンチマークデータセットにおいて、トレーニング中にPSNR、LPIPS、その他のメトリクスでより良い結果を得る。
論文 参考訳(メタデータ) (2023-12-20T16:14:58Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - Nerfbusters: Removing Ghostly Artifacts from Casually Captured NeRFs [78.75872372856597]
カジュアルに捕獲されたニューラル・レージアンス・フィールド(NeRF)は、カメラの軌道の外側でレンダリングされたとき、フローターや欠陥のある幾何学などの人工物に悩まされる。
本稿では,2つのカメラトラジェクトリがシーンに記録される新しいデータセットと評価手法を提案する。
このデータ駆動型先行処理はフローターを除去し,カジュアルキャプチャのためのシーン形状を改善した。
論文 参考訳(メタデータ) (2023-04-20T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。