論文の概要: Neural Mesh-Based Graphics
- arxiv url: http://arxiv.org/abs/2208.05785v1
- Date: Wed, 10 Aug 2022 09:18:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 13:17:16.871023
- Title: Neural Mesh-Based Graphics
- Title(参考訳): ニューラルメッシュに基づくグラフィックス
- Authors: Shubhendu Jena, Franck Multon, Adnane Boukhayma
- Abstract要約: 我々は、ユビキタスポイント特徴ニューラルパラダイムを導入した新しいビュー合成の一般的なアプローチであるPBGを再考する。
ビューメッシュベースのポイント記述化により、前景/背景のレンダリング分割に加えて、損失も改善した。
また、全データセットでトレーニングされた最先端のSVSについても競合的に実行します。
- 参考スコア(独自算出の注目度): 5.865500664175491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We revisit NPBG, the popular approach to novel view synthesis that introduced
the ubiquitous point feature neural rendering paradigm. We are interested in
particular in data-efficient learning with fast view synthesis. We achieve this
through a view-dependent mesh-based denser point descriptor rasterization, in
addition to a foreground/background scene rendering split, and an improved
loss. By training solely on a single scene, we outperform NPBG, which has been
trained on ScanNet and then scene finetuned. We also perform competitively with
respect to the state-of-the-art method SVS, which has been trained on the full
dataset (DTU and Tanks and Temples) and then scene finetuned, in spite of their
deeper neural renderer.
- Abstract(参考訳): NPBGは、ユビキタスな点特徴ニューラルレンダリングパラダイムを導入した、新しいビュー合成の一般的なアプローチである。
高速ビュー合成によるデータ効率のよい学習には特に関心があります。
我々は、前景/裏景のレンダリング分割に加えて、ビュー依存のメッシュベースの高密度点記述子ラスタ化によりこれを実現する。
1つのシーンのみをトレーニングすることで、ScanNetでトレーニングされたNABGを上回り、シーンを微調整しました。
また、DTUとタンクとテンプルの完全なデータセットで訓練された最先端のSVSに対して、より深いニューラルレンダラーにもかかわらず、微調整を施されたシーンに対して、競争的に実行します。
関連論文リスト
- D-NPC: Dynamic Neural Point Clouds for Non-Rigid View Synthesis from Monocular Video [53.83936023443193]
本稿では,スマートフォンのキャプチャなどのモノクロ映像から動的に新しいビューを合成する手法を導入することにより,この分野に貢献する。
我々のアプローチは、局所的な幾何学と外観を別個のハッシュエンコードされたニューラル特徴グリッドにエンコードする暗黙の時間条件のポイントクラウドである、$textitdynamic Neural point cloudとして表現されている。
論文 参考訳(メタデータ) (2024-06-14T14:35:44Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - 3D Reconstruction with Generalizable Neural Fields using Scene Priors [71.37871576124789]
シーンプライオリティ(NFP)を取り入れたトレーニング一般化型ニューラルフィールドを提案する。
NFPネットワークは、任意のシングルビューRGB-D画像を符号付き距離と放射値にマッピングする。
融合モジュールを外した体積空間内の個々のフレームをマージすることにより、完全なシーンを再構築することができる。
論文 参考訳(メタデータ) (2023-09-26T18:01:02Z) - View Synthesis with Sculpted Neural Points [64.40344086212279]
暗黙の神経表現は印象的な視覚的品質を達成したが、計算効率に欠点がある。
本稿では,点雲を用いたビュー合成を行う新しい手法を提案する。
レンダリング速度を100倍以上速くしながら、NeRFよりも視覚的品質を向上する最初のポイントベース手法である。
論文 参考訳(メタデータ) (2022-05-12T03:54:35Z) - NPBG++: Accelerating Neural Point-Based Graphics [14.366073496519139]
NPBG++は、シーンフィッティング時間の少ない高レンダリングリアリズムを実現する新しいビュー合成(NVS)タスクである。
本手法は,静的シーンのマルチビュー観測と点雲を効率よく利用し,各点のニューラルディスクリプタを予測する。
比較において、提案システムは、類似した画質の画像を生成しながら、ランタイムの適合とレンダリングの観点から、従来のNVSアプローチよりも優れていた。
論文 参考訳(メタデータ) (2022-03-24T19:59:39Z) - Point-Based Neural Rendering with Per-View Optimization [5.306819482496464]
入力ビューの空間におけるシーン特性のさらなる最適化を実現するため,MVSを用いた一般的な手法を提案する。
このアプローチの重要な要素は、新しい差別化可能なポイントベースパイプラインです。
私たちはこれらの要素をニューラルネットワークで組み合わせることで、テストしたほぼすべてのシーンにおいて、品質とスピードの両方で従来の方法よりも優れています。
論文 参考訳(メタデータ) (2021-09-06T11:19:31Z) - Neural Rays for Occlusion-aware Image-based Rendering [108.34004858785896]
我々は,ニューラルレイ(NeuRay)と呼ばれるニューラル表現を,マルチビューイメージを入力として,新しいビュー合成(NVS)タスクのために提案する。
NeuRayは、微調整の少ない未確認シーンの高品質なノベルビューレンダリング画像を生成することができる。
論文 参考訳(メタデータ) (2021-07-28T15:09:40Z) - TRANSPR: Transparency Ray-Accumulating Neural 3D Scene Point Renderer [6.320273914694594]
本稿では,半透明シーンをモデル化可能なニューラルポイントベースグラフィックス手法を提案し,評価する。
半透明な点雲のシーンの新たなビューは、我々のアプローチでトレーニングした後に生成できることを示す。
論文 参考訳(メタデータ) (2020-09-06T21:19:18Z) - Free View Synthesis [100.86844680362196]
本稿では,シーンの周囲に自由に分布する入力画像から新規なビュー合成手法を提案する。
本手法は,入力ビューの規則的な配置に依存しず,シーンを通して自由なカメラ運動のための画像の合成が可能であり,制約のない幾何学的レイアウトの一般的な場面で機能する。
論文 参考訳(メタデータ) (2020-08-12T18:16:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。