論文の概要: NPBG++: Accelerating Neural Point-Based Graphics
- arxiv url: http://arxiv.org/abs/2203.13318v1
- Date: Thu, 24 Mar 2022 19:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 13:34:50.306911
- Title: NPBG++: Accelerating Neural Point-Based Graphics
- Title(参考訳): NPBG++: ニューラルネットワークベースのグラフの高速化
- Authors: Ruslan Rakhimov, Andrei-Timotei Ardelean, Victor Lempitsky, Evgeny
Burnaev
- Abstract要約: NPBG++は、シーンフィッティング時間の少ない高レンダリングリアリズムを実現する新しいビュー合成(NVS)タスクである。
本手法は,静的シーンのマルチビュー観測と点雲を効率よく利用し,各点のニューラルディスクリプタを予測する。
比較において、提案システムは、類似した画質の画像を生成しながら、ランタイムの適合とレンダリングの観点から、従来のNVSアプローチよりも優れていた。
- 参考スコア(独自算出の注目度): 14.366073496519139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new system (NPBG++) for the novel view synthesis (NVS) task that
achieves high rendering realism with low scene fitting time. Our method
efficiently leverages the multiview observations and the point cloud of a
static scene to predict a neural descriptor for each point, improving upon the
pipeline of Neural Point-Based Graphics in several important ways. By
predicting the descriptors with a single pass through the source images, we
lift the requirement of per-scene optimization while also making the neural
descriptors view-dependent and more suitable for scenes with strong
non-Lambertian effects. In our comparisons, the proposed system outperforms
previous NVS approaches in terms of fitting and rendering runtimes while
producing images of similar quality.
- Abstract(参考訳): 本稿では,シーン適合時間の低い高レンダリングリアリズムを実現する新規ビュー合成(nvs)タスクのための新しいシステム(npbg++)を提案する。
本稿では,静的シーンのマルチビュー観測と点雲を効率よく利用し,各点のニューラルディスクリプタを予測し,ニューラルポイントグラフのパイプラインをいくつかの重要な方法で改善する。
ソースイメージを単一のパスでデリプタを予測することにより、シーン毎の最適化の必要性を高めながら、ニューラルネットワークデリプタをビュー依存にし、ランベルト効果の強いシーンに適したものにする。
比較の結果,提案システムは,ランタイムの適合性とレンダリングの面では従来のnvsアプローチを上回り,同じ品質の画像を生成する。
関連論文リスト
- D-NPC: Dynamic Neural Point Clouds for Non-Rigid View Synthesis from Monocular Video [53.83936023443193]
本稿では,スマートフォンのキャプチャなどのモノクロ映像から動的に新しいビューを合成する手法を導入することにより,この分野に貢献する。
我々のアプローチは、局所的な幾何学と外観を別個のハッシュエンコードされたニューラル特徴グリッドにエンコードする暗黙の時間条件のポイントクラウドである、$textitdynamic Neural point cloudとして表現されている。
論文 参考訳(メタデータ) (2024-06-14T14:35:44Z) - PNeRFLoc: Visual Localization with Point-based Neural Radiance Fields [54.8553158441296]
統一された点ベース表現に基づく新しい視覚的ローカライゼーションフレームワーク PNeRFLoc を提案する。
一方、PNeRFLocは2次元特徴点と3次元特徴点をマッチングして初期ポーズ推定をサポートする。
一方、レンダリングベースの最適化を用いた新しいビュー合成によるポーズ改善も実現している。
論文 参考訳(メタデータ) (2023-12-17T08:30:00Z) - FlowIBR: Leveraging Pre-Training for Efficient Neural Image-Based Rendering of Dynamic Scenes [5.118560450410779]
FlowIBRは、動的シーンを効率よく一眼レフで見るための新しいアプローチである。
これは、広く利用可能な静的シーンの大きなコーパスで事前トレーニングされたニューラルイメージベースのレンダリング方法と、シーンごとの最適化されたシーンフローフィールドを統合する。
提案手法はシーンごとの最適化時間を桁違いに削減し,既存の手法に匹敵するレンダリング品質を実現する。
論文 参考訳(メタデータ) (2023-09-11T12:35:17Z) - Scalable Neural Video Representations with Learnable Positional Features [73.51591757726493]
我々は,学習可能な位置特徴(NVP)を用いて,映像を潜時符号として効果的に再生するニューラル表現の訓練方法を示す。
一般的なUVGベンチマークにおけるNVPの優位性を実証し,先行技術と比較して,NVPは2倍の速度(5分以内)で走行するだけでなく,符号化品質も34.07rightarrow$34.57(PSNR測定値で測定)に上回っている。
論文 参考訳(メタデータ) (2022-10-13T08:15:08Z) - Neural Mesh-Based Graphics [5.865500664175491]
我々は、ユビキタスポイント特徴ニューラルパラダイムを導入した新しいビュー合成の一般的なアプローチであるPBGを再考する。
ビューメッシュベースのポイント記述化により、前景/背景のレンダリング分割に加えて、損失も改善した。
また、全データセットでトレーニングされた最先端のSVSについても競合的に実行します。
論文 参考訳(メタデータ) (2022-08-10T09:18:28Z) - Differentiable Point-Based Radiance Fields for Efficient View Synthesis [57.56579501055479]
本稿では,効率的な新規ビュー合成のための微分可能レンダリングアルゴリズムを提案する。
我々の手法は、トレーニングと推論の両方において、NeRFよりも最大300倍高速である。
ダイナミックなシーンでは,STNeRFよりも2桁早く,ほぼインタラクティブなレートでレンダリングを行う。
論文 参考訳(メタデータ) (2022-05-28T04:36:13Z) - View Synthesis with Sculpted Neural Points [64.40344086212279]
暗黙の神経表現は印象的な視覚的品質を達成したが、計算効率に欠点がある。
本稿では,点雲を用いたビュー合成を行う新しい手法を提案する。
レンダリング速度を100倍以上速くしながら、NeRFよりも視覚的品質を向上する最初のポイントベース手法である。
論文 参考訳(メタデータ) (2022-05-12T03:54:35Z) - Point-Based Neural Rendering with Per-View Optimization [5.306819482496464]
入力ビューの空間におけるシーン特性のさらなる最適化を実現するため,MVSを用いた一般的な手法を提案する。
このアプローチの重要な要素は、新しい差別化可能なポイントベースパイプラインです。
私たちはこれらの要素をニューラルネットワークで組み合わせることで、テストしたほぼすべてのシーンにおいて、品質とスピードの両方で従来の方法よりも優れています。
論文 参考訳(メタデータ) (2021-09-06T11:19:31Z) - Fast Training of Neural Lumigraph Representations using Meta Learning [109.92233234681319]
我々は、リアルタイムにレンダリングできる高品質な表現を素早く学習することを目的として、新しいニューラルレンダリングアプローチを開発した。
われわれのアプローチであるMetaNLR++は、ニューラル形状表現と2次元CNNに基づく画像特徴抽出、集約、再投影のユニークな組み合わせを用いてこれを実現する。
そこで本研究では,MetaNLR++が類似あるいはより優れたフォトリアリスティックなノベルビュー合成を実現し,競合する手法が要求される時間のほんの少しの時間で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-28T18:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。