論文の概要: FusedRF: Fusing Multiple Radiance Fields
- arxiv url: http://arxiv.org/abs/2306.04180v1
- Date: Wed, 7 Jun 2023 06:29:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 15:57:47.633041
- Title: FusedRF: Fusing Multiple Radiance Fields
- Title(参考訳): fusedrf: 複数の放射フィールドを使用する
- Authors: Rahul Goel, Dhawal Sirikonda, Rajvi Shah, PJ Narayanan
- Abstract要約: 複数のRFを用いて合成されたシーンに対して,単一でコンパクトで融合したRF表現を生成する方法を提案する。
本手法は,複数の教師RFから1人の学生RFに情報を抽出し,さらに融合表現への付加や削除などの操作を容易にする。
- 参考スコア(独自算出の注目度): 8.322660974721261
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Radiance Fields (RFs) have shown great potential to represent scenes from
casually captured discrete views. Compositing parts or whole of multiple
captured scenes could greatly interest several XR applications. Prior works can
generate new views of such scenes by tracing each scene in parallel. This
increases the render times and memory requirements with the number of
components. In this work, we provide a method to create a single, compact,
fused RF representation for a scene composited using multiple RFs. The fused RF
has the same render times and memory utilizations as a single RF. Our method
distills information from multiple teacher RFs into a single student RF while
also facilitating further manipulations like addition and deletion into the
fused representation.
- Abstract(参考訳): ラジアンス・フィールズ(RF)は、カジュアルに捕獲された離散ビューのシーンを表現する大きな可能性を示している。
複数の撮影シーンを構成する部分や全体は、いくつかのXRアプリケーションに大きな関心を惹きつける可能性がある。
以前の作品では、各シーンを並行してトレースすることで、このようなシーンの新しいビューを生成することができる。
これにより、コンポーネントの数によってレンダリング時間とメモリ要求が増加する。
本研究では,複数のRFを用いて合成されたシーンに対して,単一でコンパクトで融合したRF表現を生成する手法を提案する。
融合RFは、単一のRFと同じレンダリング時間とメモリ利用率を有する。
本手法は,複数の教師RFから1人の学生RFに情報を抽出し,さらに融合表現への付加や削除などの操作を容易にする。
関連論文リスト
- NeRFuser: Large-Scale Scene Representation by NeRF Fusion [35.749208740102546]
Neural Radiance Fields (NeRF)のような暗黙的な視覚表現の実用的な利点は、そのメモリ効率である。
既製のNeRFへのアクセスのみを前提としたNeRF登録とブレンディングのための新しいアーキテクチャであるNeRFuserを提案する。
論文 参考訳(メタデータ) (2023-05-22T17:59:05Z) - Multi-Space Neural Radiance Fields [74.46513422075438]
既存のニューラルレージアンス場(NeRF)法は反射物体の存在に悩まされている。
並列部分空間における特徴場の群を用いてシーンを表現するマルチスペースニューラルレイディアンス場(MS-NeRF)を提案する。
提案手法は,高品質シーンのレンダリングにおいて,既存の単一空間NeRF法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-07T13:11:07Z) - Re-ReND: Real-time Rendering of NeRFs across Devices [56.081995086924216]
Re-ReNDは、NeRFを標準グラフィックスパイプラインで効率的に処理できる表現に変換することで、リアルタイムのパフォーマンスを実現するように設計されている。
Re-ReNDはレンダリング速度が2.6倍に向上し、最先端技術では品質が損なわれることなく達成できることがわかった。
論文 参考訳(メタデータ) (2023-03-15T15:59:41Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - Mega-NeRF: Scalable Construction of Large-Scale NeRFs for Virtual
Fly-Throughs [54.41204057689033]
我々は、ニューラルネットワーク(NeRF)を活用して、建物にまたがる大規模な視覚的キャプチャーや、主にドローンデータから収集された複数の都市ブロックからインタラクティブな3D環境を構築する方法について検討する。
NeRFが伝統的に評価されている単一のオブジェクトシーンとは対照的に、この設定には複数の課題がある。
我々は、訓練画像(またはむしろピクセル)を、並列で訓練できる異なるNeRFサブモジュールに分割する単純なクラスタリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-12-20T17:40:48Z) - Baking Neural Radiance Fields for Real-Time View Synthesis [41.07052395570522]
我々は、NeRFをトレーニングし、プリコンプリートし、保存する(すなわち)方法を提案する。
「ベイク」はスパースニューラルネットワーク放射格子(snerg)と呼ばれる新しい表現である。
結果として生じるシーン表現は、細かい幾何学的詳細とビュー依存の外観をレンダリングするNeRFの能力を保持し、コンパクトであり、リアルタイムでレンダリングすることができる。
論文 参考訳(メタデータ) (2021-03-26T17:59:52Z) - Mip-NeRF: A Multiscale Representation for Anti-Aliasing Neural Radiance
Fields [45.84983186882732]
mip-NeRF"("mipmap")は、NeRFを拡張してシーンを継続的に価値あるスケールで表現します。
mip-NeRFは、光線の代わりにアンチエイリアスコニカルフラストを効率的にレンダリングすることで、不快なエイリアスアーティファクトを低減します。
NeRFと比較して、mip-NeRFはNeRFで提示されたデータセットでは平均エラー率を16%、そのデータセットでは60%削減する。
論文 参考訳(メタデータ) (2021-03-24T18:02:11Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。