論文の概要: Oblique-MERF: Revisiting and Improving MERF for Oblique Photography
- arxiv url: http://arxiv.org/abs/2404.09531v1
- Date: Mon, 15 Apr 2024 07:51:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 13:09:46.054070
- Title: Oblique-MERF: Revisiting and Improving MERF for Oblique Photography
- Title(参考訳): 斜めMERF:斜め撮影におけるMERFの再検討と改善
- Authors: Xiaoyi Zeng, Kaiwen Song, Leyuan Yang, Bailin Deng, Juyong Zhang,
- Abstract要約: ボリュームレンダリングの過程で最適化された革新的適応占有面と、これらの問題に対処するビュー依存色に対する滑らかな正規化項を導入する。
我々のアプローチは斜めMERFと呼ばれ、最先端のリアルタイム手法を約0.7dBで超過し、VRAM使用率を約40%削減し、多くの視点でよりリアルなレンダリング結果が得られる高いレンダリングフレームレートを実現している。
- 参考スコア(独自算出の注目度): 32.864777068264665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural implicit fields have established a new paradigm for scene representation, with subsequent work achieving high-quality real-time rendering. However, reconstructing 3D scenes from oblique aerial photography presents unique challenges, such as varying spatial scale distributions and a constrained range of tilt angles, often resulting in high memory consumption and reduced rendering quality at extrapolated viewpoints. In this paper, we enhance MERF to accommodate these data characteristics by introducing an innovative adaptive occupancy plane optimized during the volume rendering process and a smoothness regularization term for view-dependent color to address these issues. Our approach, termed Oblique-MERF, surpasses state-of-the-art real-time methods by approximately 0.7 dB, reduces VRAM usage by about 40%, and achieves higher rendering frame rates with more realistic rendering outcomes across most viewpoints.
- Abstract(参考訳): ニューラル暗黙の場はシーン表現の新しいパラダイムを確立し、その後の作業は高品質なリアルタイムレンダリングを実現している。
しかし、斜めの空中写真から3Dシーンを再構成すると、空間スケールの分布の変化や角度の制約など独特の課題が生じ、しばしばメモリ消費が増加し、外挿された視点でのレンダリング品質が低下する。
本稿では、ボリュームレンダリングの過程で最適化された革新的適応的占有面と、これらの問題に対処するビュー依存色に対する滑らかな正規化項を導入することで、これらのデータ特性に対応するためにMERFを強化する。
Oblique-MERFと呼ばれる我々の手法は、最先端のリアルタイム手法を約0.7dBで上回り、VRAM使用率を約40%削減し、多くの視点でよりリアルなレンダリング結果を得る。
関連論文リスト
- MVSBoost: An Efficient Point Cloud-based 3D Reconstruction [4.282795945742752]
拡張現実や仮想現実、医用画像、映画特殊効果など、様々な応用において、効率的で正確な3D再構成が不可欠である。
従来のMulti-View Stereo (MVS) システムはこれらのアプリケーションには基本的だが、暗黙の3次元シーンモデリングは複雑なトポロジや連続面を扱う新しい可能性をもたらした。
論文 参考訳(メタデータ) (2024-06-19T13:02:17Z) - PASTA: Towards Flexible and Efficient HDR Imaging Via Progressively Aggregated Spatio-Temporal Alignment [91.38256332633544]
PASTAは、HDRデゴスティングのためのプログレッシブアグリゲーションアグリゲーション・時空間アライメントフレームワークである。
提案手法は,特徴分散中の階層的表現を活用することにより,有効性と効率性を実現する。
実験結果から,従来のSOTA法よりもPASTAの方が視覚的品質と性能の両方で優れていることが示された。
論文 参考訳(メタデータ) (2024-03-15T15:05:29Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - MixRT: Mixed Neural Representations For Real-Time NeRF Rendering [24.040636076067393]
我々は、低品質メッシュ、ビュー依存変位マップ、圧縮されたNeRFモデルを含む新しいNeRF表現であるMixRTを提案する。
この設計は、既存のグラフィックスハードウェアの能力を効果的に活用し、エッジデバイス上でリアルタイムのNeRFレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-19T04:14:11Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - Multi-tiling Neural Radiance Field (NeRF) -- Geometric Assessment on Large-scale Aerial Datasets [5.391764618878545]
本稿では,大規模航空データセット上でのNeRF(Neural Radiance Fields)のスケールアップを目指す。
具体的には、メモリ消費を減らすため、位置特定サンプリング技術とマルチカメラタイリング(MCT)戦略を導入する。
提案手法を代表的手法であるMip-NeRFに実装し,その幾何性能を3光度MVSパイプラインと比較する。
論文 参考訳(メタデータ) (2023-10-01T00:21:01Z) - MERF: Memory-Efficient Radiance Fields for Real-time View Synthesis in
Unbounded Scenes [61.01853377661283]
本稿では,ブラウザにおける大規模シーンのリアルタイムレンダリングを実現するメモリ効率のよいレイディアンスフィールド表現を提案する。
我々は,シーン座標を効率の良いレイボックス交叉を実現しつつ,境界体積にマッピングする新しい収縮関数を提案する。
論文 参考訳(メタデータ) (2023-02-23T18:59:07Z) - SteerNeRF: Accelerating NeRF Rendering via Smooth Viewpoint Trajectory [20.798605661240355]
本稿では,2次元ニューラルネットワークを用いたレンダリングの高速化手法を提案する。
まず、ボリュームレンダリングにより低解像度の特徴マップを描画し、続いて、軽量な2Dニューラルを適用して、目標解像度で画像を生成する。
提案手法は,メモリオーバーヘッドを少なくしてレンダリング時間を短縮し,メモリフットプリントの少ない1080P画像解像度で30FPSを実現することで,競争力のあるレンダリング品質を実現することができることを示す。
論文 参考訳(メタデータ) (2022-12-15T00:02:36Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - PDRF: Progressively Deblurring Radiance Field for Fast and Robust Scene
Reconstruction from Blurry Images [75.87721926918874]
PDRF(Progressive Deblurring Radiance Field)について報告する。
PDRFは、ぼやけた画像から高品質な放射場を効率的に再構成する新しい手法である。
PDRF は以前の State-of-The-Art シーン再構成手法よりも15倍高速であることを示す。
論文 参考訳(メタデータ) (2022-08-17T03:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。