論文の概要: ANR: Articulated Neural Rendering for Virtual Avatars
- arxiv url: http://arxiv.org/abs/2012.12890v1
- Date: Wed, 23 Dec 2020 18:56:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 20:46:08.630559
- Title: ANR: Articulated Neural Rendering for Virtual Avatars
- Title(参考訳): ANR:仮想アバターのためのArticulated Neural Rendering
- Authors: Amit Raj, Julian Tanke, James Hays, Minh Vo, Carsten Stoll, Christoph
Lassner
- Abstract要約: Deferred Neural Rendering (DNR)に基づく新しいフレームワークであるArticulated Neural Rendering (ANR)を提案する。
我々は,DNR だけでなく,アバター生成とアニメーションに特化した手法で,ANR の優位性を示す。
- 参考スコア(独自算出の注目度): 30.787360376175123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The combination of traditional rendering with neural networks in Deferred
Neural Rendering (DNR) provides a compelling balance between computational
complexity and realism of the resulting images. Using skinned meshes for
rendering articulating objects is a natural extension for the DNR framework and
would open it up to a plethora of applications. However, in this case the
neural shading step must account for deformations that are possibly not
captured in the mesh, as well as alignment inaccuracies and dynamics -- which
can confound the DNR pipeline. We present Articulated Neural Rendering (ANR), a
novel framework based on DNR which explicitly addresses its limitations for
virtual human avatars. We show the superiority of ANR not only with respect to
DNR but also with methods specialized for avatar creation and animation. In two
user studies, we observe a clear preference for our avatar model and we
demonstrate state-of-the-art performance on quantitative evaluation metrics.
Perceptually, we observe better temporal stability, level of detail and
plausibility.
- Abstract(参考訳): deferred neural rendering(dnr)における従来のレンダリングとニューラルネットワークの組み合わせは、計算の複雑さと結果の画像のリアリズムの間の説得力のあるバランスをもたらす。
オブジェクトの描画にスキン付きメッシュを使用することは、DNRフレームワークの自然な拡張であり、多数のアプリケーションに開放される。
しかしながら、このケースでは、ニューラルネットワークシェーディングステップは、メッシュ内でキャプチャされない可能性のある変形と、DNRパイプラインを混乱させる可能性のあるアライメントの不正確さとダイナミクスを考慮しなければならない。
我々はDNRに基づく新しいフレームワークであるArticulated Neural Rendering (ANR)について述べる。
我々は,DNR だけでなく,アバター生成とアニメーションに特化した手法で ANR の優位性を示す。
2つのユーザスタディにおいて,アバターモデルに対する明確な好みを観察し,定量的評価指標における最先端のパフォーマンスを示す。
知覚上は、より優れた時間安定性、詳細度、信頼性を観察する。
関連論文リスト
- Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Neural Adaptive SCEne Tracing [24.781844909539686]
NAScenTは,ハイブリッド・明示的ニューラル表現を直接訓練した最初のニューラルレンダリング手法である。
NAScenTは、UAVが捕獲した屋外環境のような、大きくて人口の少ないボリュームを含む、困難なシーンを再構築することができる。
論文 参考訳(メタデータ) (2022-02-28T10:27:23Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Towards Lightweight Controllable Audio Synthesis with Conditional
Implicit Neural Representations [10.484851004093919]
入射神経表現(英語: Implicit Neural representations、INR)は、低次元関数を近似するニューラルネットワークである。
本研究では、音声合成のための生成フレームワークの軽量バックボーンとして、CINR(Conditional Implicit Neural Representations)の可能性に光を当てた。
論文 参考訳(メタデータ) (2021-11-14T13:36:18Z) - Neural Rays for Occlusion-aware Image-based Rendering [108.34004858785896]
我々は,ニューラルレイ(NeuRay)と呼ばれるニューラル表現を,マルチビューイメージを入力として,新しいビュー合成(NVS)タスクのために提案する。
NeuRayは、微調整の少ない未確認シーンの高品質なノベルビューレンダリング画像を生成することができる。
論文 参考訳(メタデータ) (2021-07-28T15:09:40Z) - Few-shot Neural Human Performance Rendering from Sparse RGBD Videos [40.20382131461408]
人間の活動に対する最近のニューラルレンダリングアプローチは、目覚ましいビューレンダリング結果を達成するが、それでもインプットビューの厳密なトレーニングに依存している。
本稿では、RGBD入力のみからFNHR(s fewshot Neural rendering approach)を提案し、光ビュー自由視点結果を生成する。
論文 参考訳(メタデータ) (2021-07-14T06:28:16Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z) - UNISURF: Unifying Neural Implicit Surfaces and Radiance Fields for
Multi-View Reconstruction [61.17219252031391]
ニューラル暗黙的3D表現を用いた多視点画像から表面を再構築する新しい手法を提案する。
我々の重要な洞察は、暗黙の曲面モデルと放射場を統一的に定式化し、表面および体積のレンダリングを可能にすることである。
実験により, マスクを必要とせず, idrと同等の性能を保ちつつ, 再構成品質でnrfを上回った。
論文 参考訳(メタデータ) (2021-04-20T15:59:38Z) - Neural Lumigraph Rendering [33.676795978166375]
最先端の(SOTA)ニューラルボリュームレンダリングアプローチは、トレーニングが遅く、高い画像解像度のために数分の推論(レンダリング)時間を必要とします。
本研究では,2次元画像のみを監督するシーンの暗黙の面と放射界を協調的に最適化するために,周期的アクティベーションを伴う高容量なニューラルシーン表現を採用する。
我々のニューラルレンダリングパイプラインは、SOTAニューラルボリュームレンダリングを約2桁加速し、暗黙のサーフェス表現は、ビュー依存テクスチャ情報によるメッシュのエクスポートを可能にするユニークなものです。
論文 参考訳(メタデータ) (2021-03-22T03:46:05Z) - Convolutional versus Self-Organized Operational Neural Networks for
Real-World Blind Image Denoising [25.31981236136533]
初めてDeep Self-ONNを採用することで、現実世界の盲目の画像消音問題に取り組みます。
ディープセルフオンはPSNRで最大1.76dBの性能向上で常に優れた結果を達成します。
論文 参考訳(メタデータ) (2021-03-04T14:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。