論文の概要: LookCloser: Frequency-aware Radiance Field for Tiny-Detail Scene
- arxiv url: http://arxiv.org/abs/2503.18513v1
- Date: Mon, 24 Mar 2025 10:07:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:35:53.499071
- Title: LookCloser: Frequency-aware Radiance Field for Tiny-Detail Scene
- Title(参考訳): LookCloser:Tiny-Detailシーンの周波数対応放射場
- Authors: Xiaoyu Zhang, Weihong Pan, Chong Bao, Xiyu Zhang, Xiaojun Xiang, Hanqing Jiang, Hujun Bao,
- Abstract要約: FA-NeRFはビュー合成のための新しいフレームワークであり、単一のNeRFモデル内で全体のシーン構造と高精細度を同時にキャプチャする。
我々のフレームワークは、周波数コンバージェンスとクエリのための周波数グリッドと、異なる周波数コンテンツ間で特徴のバランスをとるための周波数認識機能の再重み付け戦略を組み込んでいる。
- 参考スコア(独自算出の注目度): 36.565356293244534
- License:
- Abstract: Humans perceive and comprehend their surroundings through information spanning multiple frequencies. In immersive scenes, people naturally scan their environment to grasp its overall structure while examining fine details of objects that capture their attention. However, current NeRF frameworks primarily focus on modeling either high-frequency local views or the broad structure of scenes with low-frequency information, which is limited to balancing both. We introduce FA-NeRF, a novel frequency-aware framework for view synthesis that simultaneously captures the overall scene structure and high-definition details within a single NeRF model. To achieve this, we propose a 3D frequency quantification method that analyzes the scene's frequency distribution, enabling frequency-aware rendering. Our framework incorporates a frequency grid for fast convergence and querying, a frequency-aware feature re-weighting strategy to balance features across different frequency contents. Extensive experiments show that our method significantly outperforms existing approaches in modeling entire scenes while preserving fine details.
- Abstract(参考訳): 人間は、複数の周波数にまたがる情報を通じて周囲を知覚し、理解する。
没入的な場面では、人々は自然に環境をスキャンして全体の構造を把握し、注意を捉える物体の細部を調べます。
しかし、現在のNeRFフレームワークは、主に高周波ローカルビューまたは低周波情報による広いシーン構造をモデリングすることに焦点を当てており、両者のバランスに限られている。
FA-NeRFは1つのNeRFモデル内で全体のシーン構造と高精細度を同時にキャプチャする、ビュー合成のための新しい周波数認識フレームワークである。
そこで本研究では,シーンの周波数分布を解析し,周波数認識レンダリングを可能にする3次元周波数定量化手法を提案する。
我々のフレームワークは、周波数コンバージェンスとクエリのための周波数グリッドと、異なる周波数コンテンツ間で特徴のバランスをとるための周波数認識機能の再重み付け戦略を組み込んでいる。
大規模な実験により,本手法はシーン全体のモデリングにおいて,細部を保ちながら既存の手法よりも優れていたことが判明した。
関連論文リスト
- Sharpening Neural Implicit Functions with Frequency Consolidation Priors [53.6277160912059]
符号付き距離関数 (Signed Distance Function, SDF) は、高忠実度3D表面を表現するために重要な暗黙の表現である。
現在の手法は主にニューラルネットワークを利用して、署名された3Dポイントクラウドやマルチビューイメージなど、さまざまな監督機関からSDFを学ぶ。
本研究では、高周波成分を回収し、よりシャープで完全な表面を追求することにより、低周波SDF観測を高速化する手法を提案する。
論文 参考訳(メタデータ) (2024-12-27T16:18:46Z) - Frequency-Adaptive Pan-Sharpening with Mixture of Experts [22.28680499480492]
パンシャーピングのための新しい周波数適応型エキスパート混合学習フレームワーク(FAME)を提案する。
本手法は他の最先端技術に対して最善を尽くし,現実のシーンに対して強力な一般化能力を有する。
論文 参考訳(メタデータ) (2024-01-04T08:58:25Z) - WaveNeRF: Wavelet-based Generalizable Neural Radiance Fields [149.2296890464997]
我々は、ウェーブレット周波数分解をMVSとNeRFに統合したWaveNeRFを設計する。
WaveNeRFは、3つの画像のみを入力として与えたときに、より優れた一般化可能な放射場モデリングを実現する。
論文 参考訳(メタデータ) (2023-08-09T09:24:56Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - Mega-NeRF: Scalable Construction of Large-Scale NeRFs for Virtual
Fly-Throughs [54.41204057689033]
我々は、ニューラルネットワーク(NeRF)を活用して、建物にまたがる大規模な視覚的キャプチャーや、主にドローンデータから収集された複数の都市ブロックからインタラクティブな3D環境を構築する方法について検討する。
NeRFが伝統的に評価されている単一のオブジェクトシーンとは対照的に、この設定には複数の課題がある。
我々は、訓練画像(またはむしろピクセル)を、並列で訓練できる異なるNeRFサブモジュールに分割する単純なクラスタリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-12-20T17:40:48Z) - Wavelet-Based Network For High Dynamic Range Imaging [64.66969585951207]
光学フローベースやエンド・ツー・エンドのディープラーニングベースのソリューションのような既存の方法は、詳細な復元やゴーストを除去する際にエラーを起こしやすい。
本研究では、周波数領域でHDR融合を行うための新しい周波数誘導型エンド・ツー・エンドディープニューラルネットワーク(FNet)を提案し、ウェーブレット変換(DWT)を用いて入力を異なる周波数帯域に分解する。
低周波信号は特定のゴーストアーティファクトを避けるために使用され、高周波信号は詳細を保存するために使用される。
論文 参考訳(メタデータ) (2021-08-03T12:26:33Z) - Exploring Spatial-Temporal Multi-Frequency Analysis for High-Fidelity
and Temporal-Consistency Video Prediction [12.84409065286371]
本稿では,マルチレベルウェーブレット解析に基づく映像予測ネットワークを提案し,空間的・時間的情報を統一的に扱う。
本モデルでは,最先端の作業に対する忠実度と時間的整合性に大きな改善が見られた。
論文 参考訳(メタデータ) (2020-02-23T13:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。