論文の概要: R3eVision: A Survey on Robust Rendering, Restoration, and Enhancement for 3D Low-Level Vision
- arxiv url: http://arxiv.org/abs/2506.16262v2
- Date: Mon, 23 Jun 2025 13:06:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 12:48:19.147022
- Title: R3eVision: A Survey on Robust Rendering, Restoration, and Enhancement for 3D Low-Level Vision
- Title(参考訳): R3eVision:3次元低レベルビジョンにおけるロバストレンダリング、リカバリ、エンハンスメントに関する調査
- Authors: Weeyoung Kwon, Jeahun Sung, Minkyu Jeon, Chanho Eom, Jihyong Oh,
- Abstract要約: 3次元低レベルビジョン(3D LLV)は、古典的な2次元低レベルビジョンタスクを3次元空間領域に拡張する。
LLVをニューラルレンダリングフレームワークに統合する最近の手法は、有害な条件下で高忠実度3D再構成を可能にする方法を説明するために分類される。
本研究は、3D LLVを実環境におけるロバストな3Dコンテンツ生成とシーンレベルの再構築の基本的な方向性として位置づける。
- 参考スコア(独自算出の注目度): 9.961452710097685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural rendering methods such as Neural Radiance Fields (NeRF) and 3D Gaussian Splatting (3DGS) have achieved significant progress in photorealistic 3D scene reconstruction and novel view synthesis. However, most existing models assume clean and high-resolution (HR) multi-view inputs, which limits their robustness under real-world degradations such as noise, blur, low-resolution (LR), and weather-induced artifacts. To address these limitations, the emerging field of 3D Low-Level Vision (3D LLV) extends classical 2D Low-Level Vision tasks including super-resolution (SR), deblurring, weather degradation removal, restoration, and enhancement into the 3D spatial domain. This survey, referred to as R\textsuperscript{3}eVision, provides a comprehensive overview of robust rendering, restoration, and enhancement for 3D LLV by formalizing the degradation-aware rendering problem and identifying key challenges related to spatio-temporal consistency and ill-posed optimization. Recent methods that integrate LLV into neural rendering frameworks are categorized to illustrate how they enable high-fidelity 3D reconstruction under adverse conditions. Application domains such as autonomous driving, AR/VR, and robotics are also discussed, where reliable 3D perception from degraded inputs is critical. By reviewing representative methods, datasets, and evaluation protocols, this work positions 3D LLV as a fundamental direction for robust 3D content generation and scene-level reconstruction in real-world environments.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)や3Dガウス・スプレイティング(3DGS)のようなニューラル・レンダリング法は、フォトリアリスティックな3Dシーン再構成と新しいビュー合成において大きな進歩を遂げている。
しかし、既存のほとんどのモデルでは、ノイズ、ぼかし、低解像度(LR)、気象によって引き起こされるアーティファクトといった現実の劣化下での堅牢性を制限する、クリーンで高解像度(HR)マルチビュー入力を前提としている。
これらの制限に対処するため、3D低レベルビジョン(3D LLV)の新興分野は、超解像(SR)、劣化、天候の劣化、復元、三次元空間領域への拡張を含む古典的な2D低レベルビジョンタスクを拡張している。
このサーベイはR\textsuperscript{3}eVisionと呼ばれ、劣化認識レンダリング問題を定式化し、時空間整合性や不測の最適化に関連する重要な課題を特定することで、3D LLVの堅牢なレンダリング、復元、拡張の包括的概要を提供する。
LLVをニューラルレンダリングフレームワークに統合する最近の手法は、有害な条件下で高忠実度3D再構成を可能にする方法を説明するために分類される。
自律運転、AR/VR、ロボティクスといったアプリケーションドメインについても論じており、劣化した入力からの信頼性の高い3D知覚が重要である。
本研究は,代表的手法,データセット,評価プロトコルをレビューすることにより,実環境における3Dコンテンツ生成とシーンレベルの再構築の基本的な方向性として3D LLVを位置づける。
関連論文リスト
- S3R-GS: Streamlining the Pipeline for Large-Scale Street Scene Reconstruction [58.37746062258149]
3D Gaussian Splatting(3DGS)は、3D再構成の分野を変え、素晴らしいレンダリング品質とスピードを実現した。
既存の手法では、シーンサイズが大きくなるにつれて、ビューポイント当たりの再生コストが急速に増大する。
大規模なストリートシーン再構築のためのパイプラインをストリーム化する3DGSフレームワークであるS3R-GSを提案する。
論文 参考訳(メタデータ) (2025-03-11T09:37:13Z) - StructGS: Adaptive Spherical Harmonics and Rendering Enhancements for Superior 3D Gaussian Splatting [5.759434800012218]
StructGS は 3D Gaussian Splatting (3DGS) を強化し、3D再構成における新規なビュー合成を改善するフレームワークである。
我々のフレームワークは計算冗長性を著しく低減し、ディテールキャプチャを強化し、低解像度入力からの高解像度レンダリングをサポートする。
論文 参考訳(メタデータ) (2025-03-09T05:39:44Z) - Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models [65.90387371072413]
本稿では,3次元再構成と新規ビュー合成を向上する新しいパイプラインであるDifix3D+を紹介する。
このアプローチのコアとなるのは、レンダリングされた新規ビューにおけるアーティファクトの強化と削除のためにトレーニングされた、単一ステップのイメージ拡散モデルであるDifixです。
論文 参考訳(メタデータ) (2025-03-03T17:58:33Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - NeSLAM: Neural Implicit Mapping and Self-Supervised Feature Tracking With Depth Completion and Denoising [23.876281686625134]
我々は,高精度で密度の高い深度推定,ロバストなカメラトラッキング,新しいビューの現実的な合成を実現するフレームワークNeSLAMを提案する。
各種屋内データセットを用いた実験は、再構築、品質追跡、新しいビュー合成におけるシステムの有効性と精度を示す。
論文 参考訳(メタデータ) (2024-03-29T07:59:37Z) - Zero123-6D: Zero-shot Novel View Synthesis for RGB Category-level 6D Pose Estimation [66.3814684757376]
本研究は,RGB 6Dのカテゴリレベルでのポーズ推定を向上するための拡散モデルに基づく新規ビュー合成器の実用性を示す最初の研究であるZero123-6Dを示す。
本手法は,データ要求の低減,ゼロショットカテゴリレベルの6Dポーズ推定タスクにおける深度情報の必要性の除去,およびCO3Dデータセットの実験により定量的に示された性能の向上を示す。
論文 参考訳(メタデータ) (2024-03-21T10:38:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。