論文の概要: AquaNeRF: Neural Radiance Fields in Underwater Media with Distractor Removal
- arxiv url: http://arxiv.org/abs/2502.16351v1
- Date: Sat, 22 Feb 2025 20:53:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:54:21.886122
- Title: AquaNeRF: Neural Radiance Fields in Underwater Media with Distractor Removal
- Title(参考訳): AquaNeRF: ディトラクタ除去を伴う水中媒体のニューラルラジアンス場
- Authors: Luca Gough, Adrian Azzarelli, Fan Zhang, Nantheera Anantrasirichai,
- Abstract要約: 本稿では,暗黙的なNeRFモデルのための新しいNeRFと最適化手法を提案する。
提案手法は,ベースラインのNerfactoを約7.5%,SeaThru-NeRFを約6.2%,PSNRを約6.2%向上させる。
- 参考スコア(独自算出の注目度): 4.332534893042983
- License:
- Abstract: Neural radiance field (NeRF) research has made significant progress in modeling static video content captured in the wild. However, current models and rendering processes rarely consider scenes captured underwater, which are useful for studying and filming ocean life. They fail to address visual artifacts unique to underwater scenes, such as moving fish and suspended particles. This paper introduces a novel NeRF renderer and optimization scheme for an implicit MLP-based NeRF model. Our renderer reduces the influence of floaters and moving objects that interfere with static objects of interest by estimating a single surface per ray. We use a Gaussian weight function with a small offset to ensure that the transmittance of the surrounding media remains constant. Additionally, we enhance our model with a depth-based scaling function to upscale gradients for near-camera volumes. Overall, our method outperforms the baseline Nerfacto by approximately 7.5\% and SeaThru-NeRF by 6.2% in terms of PSNR. Subjective evaluation also shows a significant reduction of artifacts while preserving details of static targets and background compared to the state of the arts.
- Abstract(参考訳): ニューラルレイディアンスフィールド(NeRF)の研究は、野生で撮影された静止映像のモデリングにおいて大きな進歩をもたらした。
しかし、現在のモデルやレンダリングプロセスは、海洋生物の研究や撮影に有用な水中撮影シーンをほとんど考慮していない。
魚の移動や懸濁粒子など、水中のシーンに特有の視覚的な人工物に対処することができない。
本稿では,暗黙的MDPに基づくNeRFモデルのための新しいNeRFレンダラと最適化手法を提案する。
我々のレンダラーは、1光線当たりの1面を推定することにより、浮動小数点および静止物体に干渉する移動物体の影響を低減します。
ガウス重み関数と小さなオフセットを用いて、周辺媒体の透過率が一定であることを保証する。
さらに、深度に基づくスケーリング機能により、近カメラボリュームのスケールアップ勾配を向上する。
総じて,本手法はベースラインのNerfactoを7.5\%,SeaThru-NeRFを6.2%,PSNRを6.2%向上させる。
主観的評価はまた,静的目標と背景の詳細を最先端技術と比較しながら,アーティファクトの大幅な削減を示す。
関連論文リスト
- WaterHE-NeRF: Water-ray Tracing Neural Radiance Fields for Underwater
Scene Reconstruction [6.036702530679703]
本研究では,3次元空間における色,密度,照度減衰を正確にエンコードするRetinex理論による新しい水線トレーシング場を開発する。
WaterHE-NeRFは、その発光減衰機構を通じて、劣化画像と鮮明な多視点画像の両方を生成する。
論文 参考訳(メタデータ) (2023-12-12T02:55:14Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - SeaThru-NeRF: Neural Radiance Fields in Scattering Media [13.021398621908578]
そこで我々は,SeaThru画像形成モデルに基づく散乱媒質中のNeRFの新しいレンダリングモデルを開発した。
本手法の強みをシミュレーションおよび実世界のシーンで示し、水中で新しい写真リアリスティックなビューを正しくレンダリングする。
私たちのコードとユニークなデータセットはプロジェクトのWebサイトで公開されています。
論文 参考訳(メタデータ) (2023-04-16T10:17:26Z) - NeRF-DS: Neural Radiance Fields for Dynamic Specular Objects [63.04781030984006]
ダイナミック・ニューラル・ラジアンス・フィールド(英語版)(NeRF)は、動的シーンの単眼RGBビデオからフォトリアリスティック・ノベル・ビュー・イメージをレンダリングできる強力なアルゴリズムである。
観測空間の表面位置と配向に条件付される神経放射場関数を再構成することにより,その限界に対処する。
本研究では,現実的な環境下での異なる移動スペクトルオブジェクトの自己合成データセットを用いて,新しいビュー合成品質に基づくモデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-25T11:03:53Z) - ABLE-NeRF: Attention-Based Rendering with Learnable Embeddings for
Neural Radiance Field [20.986012773294714]
我々は,光線に沿ったボリュームに自己注意型フレームワークを導入することで,物理ベースのVRアプローチに代わる方法を提案する。
ABLE-NeRFと呼ばれるこの手法は、レンダリングにおける光沢のある表面のぼやけを著しく低減し、先行技術に欠ける現実的な半透明な表面を生成する。
論文 参考訳(メタデータ) (2023-03-24T05:34:39Z) - DARF: Depth-Aware Generalizable Neural Radiance Field [51.29437249009986]
本稿では,Depth-Aware Dynamic Smpling(DADS)戦略を用いたDARF(Depth-Aware Generalizable Neural Radiance Field)を提案する。
筆者らのフレームワークは,数枚の入力画像で,画素レベルと幾何学レベルの両方の見えないシーンを推測する。
DARFは、最先端の一般化可能なNeRF法と比較して、レンダリング品質と深さ推定を改善しつつ、サンプルを50%削減する。
論文 参考訳(メタデータ) (2022-12-05T14:00:59Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - R2L: Distilling Neural Radiance Field to Neural Light Field for
Efficient Novel View Synthesis [76.07010495581535]
一つのピクセルをレンダリングするには、数百回もNeural Radiance Fieldネットワークに問い合わせる必要がある。
NeLFは、新しい視点において、NeRFに対してより直接的な表現を提示する。
ディープNeLFネットワークをうまく学習する鍵は、十分なデータを持つことである。
論文 参考訳(メタデータ) (2022-03-31T17:57:05Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。