論文の概要: SonarSplat: Novel View Synthesis of Imaging Sonar via Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2504.00159v1
- Date: Mon, 31 Mar 2025 19:13:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:22:19.328005
- Title: SonarSplat: Novel View Synthesis of Imaging Sonar via Gaussian Splatting
- Title(参考訳): SonarSplat:Gaussian Splattingによるイメージングソナーの新しい視点合成
- Authors: Advaith V. Sethuraman, Max Rucker, Onur Bagoren, Pou-Chun Kung, Nibarkavi N. B. Amutha, Katherine A. Skinner,
- Abstract要約: 本研究では,ガウススプレイティングフレームワークSonarSplatのアジマスストリーキングをモデル化するための新しいアプローチを開発した。
最先端と比較して、SonarSplatは改良された画像合成機能(+2.5dB PSNR)を提供する。
- 参考スコア(独自算出の注目度): 2.3566649723843773
- License:
- Abstract: In this paper, we present SonarSplat, a novel Gaussian splatting framework for imaging sonar that demonstrates realistic novel view synthesis and models acoustic streaking phenomena. Our method represents the scene as a set of 3D Gaussians with acoustic reflectance and saturation properties. We develop a novel method to efficiently rasterize learned Gaussians to produce a range/azimuth image that is faithful to the acoustic image formation model of imaging sonar. In particular, we develop a novel approach to model azimuth streaking in a Gaussian splatting framework. We evaluate SonarSplat using real-world datasets of sonar images collected from an underwater robotic platform in a controlled test tank and in a real-world river environment. Compared to the state-of-the-art, SonarSplat offers improved image synthesis capabilities (+2.5 dB PSNR). We also demonstrate that SonarSplat can be leveraged for azimuth streak removal and 3D scene reconstruction.
- Abstract(参考訳): 本稿では,ソナーを画像化するための新しいガウススプラッティングフレームワークであるSonarSplatについて述べる。
本手法は, 音響反射特性と飽和特性を有する3次元ガウスの集合として, シーンを表現している。
画像ソナーの音響画像形成モデルに忠実な領域/方位画像を生成するために,学習したガウスを効率的にラスタライズする手法を開発した。
特に,ガウススプラッティングフレームワークにおいて,アジマスストライキングをモデル化するための新しいアプローチを開発する。
制御試験槽および実世界の河川環境において,水中ロボットプラットフォームから収集したソナー画像の実際のデータセットを用いてSonarSplatを評価する。
最先端と比較して、SonarSplatは改良された画像合成機能(+2.5dB PSNR)を提供する。
また,アジマスストリーク除去と3次元シーン再構築にSonarSplatが有効であることを示す。
関連論文リスト
- BeSplat: Gaussian Splatting from a Single Blurry Image and Event Stream [13.649334929746413]
3D Gaussian Splatting (3DGS)は、長いトレーニング時間や遅いレンダリング速度といった重要な課題に効果的に対処している。
本研究では,1つの動きブル画像とそれに対応するイベントストリームから,シャープな放射場(ガウススプラッツ)の回復を実証する。
論文 参考訳(メタデータ) (2024-12-26T22:35:29Z) - EnvGS: Modeling View-Dependent Appearance with Environment Gaussian [78.74634059559891]
EnvGSは、環境の反射を捉えるための明示的な3D表現として、ガウスプリミティブのセットを利用する新しいアプローチである。
これらの環境を効率的にレンダリングするために,高速レンダリングにGPUのRTコアを利用するレイトレーシングベースのリフレクションを開発した。
複数の実世界および合成データセットから得られた結果は,本手法がより詳細な反射を生成することを示す。
論文 参考訳(メタデータ) (2024-12-19T18:59:57Z) - NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - FewViewGS: Gaussian Splatting with Few View Matching and Multi-stage Training [15.634646420318731]
スパース入力画像を用いた3次元ガウス型新規ビュー合成法を提案する。
本稿では,新しい視点に課せられる整合性制約を考慮した多段階学習手法を提案する。
これは、利用可能なトレーニング画像のマッチングを使用して、新しいビューの生成を監督することで達成される。
論文 参考訳(メタデータ) (2024-11-04T16:21:00Z) - MeshGS: Adaptive Mesh-Aligned Gaussian Splatting for High-Quality Rendering [61.64903786502728]
本稿では,メッシュ表現を3次元ガウススプラットと統合し,再現された現実世界のシーンの高品質なレンダリングを実現する手法を提案する。
各ガウススプレートとメッシュ表面との距離を, 密接な束縛と緩い束縛の相違点として検討した。
提案手法は,2dB高いPSNRを達成し,メッシュベースのガウス分割法を1.3dBPSNRで上回った。
論文 参考訳(メタデータ) (2024-10-11T16:07:59Z) - Splatt3R: Zero-shot Gaussian Splatting from Uncalibrated Image Pairs [29.669534899109028]
Splatt3Rはポーズレスフィードフォワード方式で,立体対からの3次元再構成と新しいビュー合成を行う。
Splatt3Rは補正されていない自然画像から、カメラパラメータや深度情報を必要とせずに3Dガウススプラッターを予測できる。
Splatt3Rは512 x 512の解像度で4FPSでシーンを再構築でき、その結果のスプラッターをリアルタイムでレンダリングできる。
論文 参考訳(メタデータ) (2024-08-25T18:27:20Z) - Splatfacto-W: A Nerfstudio Implementation of Gaussian Splatting for Unconstrained Photo Collections [25.154665328053333]
Splatfacto-Wは、ガウスごとのニューラルカラー特徴と画像ごとの外観をレンダリングプロセスに組み込む、自明なアプローチである。
提案手法は,3DGSに比べて平均5.3dBのPak Signal-to-Noise Ratio(PSNR)を向上し,NeRF法に比べて150倍のトレーニング速度を向上し,3DGSと同様のレンダリング速度を実現する。
論文 参考訳(メタデータ) (2024-07-17T04:02:54Z) - FreeSplat: Generalizable 3D Gaussian Splatting Towards Free-View Synthesis of Indoor Scenes [50.534213038479926]
FreeSplatは、長いシーケンス入力から自由視点合成まで、幾何学的に一貫した3Dシーンを再構築することができる。
ビュー数に関係なく、広いビュー範囲にわたる堅牢なビュー合成を実現するための、シンプルで効果的なフリービュートレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-05-28T08:40:14Z) - RainyScape: Unsupervised Rainy Scene Reconstruction using Decoupled Neural Rendering [50.14860376758962]
多視点降雨画像の集合からクリーンなシーンを再構築するための教師なしフレームワークであるRainyScapeを提案する。
ニューラルネットワークのスペクトルバイアス特性に基づいて、まずニューラルネットワークのレンダリングパイプラインを最適化し、低周波シーン表現を得る。
我々は2つのモジュールを協調的に最適化し,適応的指向性勾配に基づく再構成損失によって駆動する。
論文 参考訳(メタデータ) (2024-04-17T14:07:22Z) - Z-Splat: Z-Axis Gaussian Splatting for Camera-Sonar Fusion [20.464224937528222]
3Dシーンを再構成するためのコンピュータビジョンとグラフィックにおいて、微分可能な3D-ガウススプラッティング(GS)が顕著な技術として登場している。
GSはよく知られた「抜ける円錐」問題に悩まされており、深さ軸に沿った再建が不十分である。
RGBカメラデータとソナーデータを同時に利用する融合アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-06T17:23:43Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。