論文の概要: Super-Resolution Appearance Transfer for 4D Human Performances
- arxiv url: http://arxiv.org/abs/2108.13739v1
- Date: Tue, 31 Aug 2021 10:53:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 22:23:47.493178
- Title: Super-Resolution Appearance Transfer for 4D Human Performances
- Title(参考訳): 4次元人体性能のための超解像伝達
- Authors: Marco Pesavento, Marco Volino and Adrian Hilton
- Abstract要約: 多視点ビデオからの4D再構成における一般的な問題は、キャプチャーされた動的テクスチャの外観の品質である。
静的な高解像度の外観キャプチャ・リグから超高解像度の外観伝達による解を提案する。
- 参考スコア(独自算出の注目度): 29.361342747786164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A common problem in the 4D reconstruction of people from multi-view video is
the quality of the captured dynamic texture appearance which depends on both
the camera resolution and capture volume. Typically the requirement to frame
cameras to capture the volume of a dynamic performance ($>50m^3$) results in
the person occupying only a small proportion $<$ 10% of the field of view. Even
with ultra high-definition 4k video acquisition this results in sampling the
person at less-than standard definition 0.5k video resolution resulting in
low-quality rendering. In this paper we propose a solution to this problem
through super-resolution appearance transfer from a static high-resolution
appearance capture rig using digital stills cameras ($> 8k$) to capture the
person in a small volume ($<8m^3$). A pipeline is proposed for super-resolution
appearance transfer from high-resolution static capture to dynamic video
performance capture to produce super-resolution dynamic textures. This
addresses two key problems: colour mapping between different camera systems;
and dynamic texture map super-resolution using a learnt model. Comparative
evaluation demonstrates a significant qualitative and quantitative improvement
in rendering the 4D performance capture with super-resolution dynamic texture
appearance. The proposed approach reproduces the high-resolution detail of the
static capture whilst maintaining the appearance dynamics of the captured
video.
- Abstract(参考訳): マルチビュービデオからの4次元再構成における一般的な問題は、カメラ解像度とキャプチャボリュームの両方に依存する、キャプチャされた動的テクスチャの外観の品質である。
通常、ダイナミックなパフォーマンス(>50m^3$)のボリュームを捉えるためにカメラをフレーム化する必要があるため、視野の10%をわずかに占めるだけで済む。
超高精細4kビデオ取得であっても、この結果、標準定義0.5kビデオ解像度で人物をサンプリングし、低画質のレンダリングを実現する。
本稿では,デジタル静止画カメラ(8kドル)を用いた静止高解像度撮影装置からの超高精細な外見転送により,小容量の人物を捕獲する手法を提案する。
超解像動的テクスチャを生成するため、高分解能静的キャプチャーからダイナミックビデオパフォーマンスキャプチャーへ超解像的外観伝達を行うパイプラインを提案する。
これは、異なるカメラシステム間の色マッピングと学習モデルを用いた動的テクスチャマップ超解像の2つの主要な問題に対処する。
超高分解能な動的テクスチャの外観を持つ4Dパフォーマンスキャプチャのレンダリングにおいて、比較評価は質的かつ定量的な改善を示す。
提案手法は,映像の出現ダイナミクスを維持しつつ,静的キャプチャの高分解能詳細を再現する。
関連論文リスト
- VisualRWKV-HD and UHD: Advancing High-Resolution Processing for Visual Language Models [1.03590082373586]
本稿では,VisualRWKV-HDとVisualRWKV-UHDについて述べる。
どちらのモデルも解像度を4096 x 4096ピクセルまでサポートしており、より詳細で包括的なビジュアル処理機能を提供する。
論文 参考訳(メタデータ) (2024-10-15T14:49:19Z) - AIM 2024 Challenge on Efficient Video Super-Resolution for AV1 Compressed Content [56.552444900457395]
ビデオスーパーレゾリューション(VSR)は、特にストリーミングアプリケーションにおいて、低ビットレートおよび低解像度ビデオを強化するための重要なタスクである。
本研究では,これらの課題に対処するために様々な手法をコンパイルし,その解決策はエンドツーエンドのビデオ超解像フレームワークである。
提案されたソリューションは、一般的なケースとして540pから4K(x4)、モバイルデバイス向けに調整された360pから1080p(x3)の2つのアプリケーションのためのビデオアップスケーリングに取り組む。
論文 参考訳(メタデータ) (2024-09-25T18:12:19Z) - EG4D: Explicit Generation of 4D Object without Score Distillation [105.63506584772331]
DG4Dは、スコア蒸留なしで高品質で一貫した4Dアセットを生成する新しいフレームワークである。
私たちのフレームワークは、世代品質のベースラインをかなりのマージンで上回ります。
論文 参考訳(メタデータ) (2024-05-28T12:47:22Z) - Holoported Characters: Real-time Free-viewpoint Rendering of Humans from Sparse RGB Cameras [65.54875149514274]
一般のアパレルにおいて,人間俳優の高度にリアルなフリー視点映像をレンダリングするための最初のアプローチを提案する。
提案手法は,動作中のアクターの4つのカメラビューと,各3次元骨格ポーズのみを必要とする。
広い服装の俳優を扱い、さらに細かなダイナミックディテールを再現する。
論文 参考訳(メタデータ) (2023-12-12T16:45:52Z) - 4K4D: Real-Time 4D View Synthesis at 4K Resolution [86.6582179227016]
本稿では、4K解像度で動的3Dシーンを高忠実かつリアルタイムに見ることを目的とする。
ハードウェア化をサポートし,前例のないレンダリング速度を実現する4Dポイントクラウド表現を提案する。
私たちの表現は、1080p解像度のDNAレンダリングデータセットで400 FPS、4090 GPUで4K解像度のENeRF-Outdoorデータセットで80 FPSでレンダリングできます。
論文 参考訳(メタデータ) (2023-10-17T17:57:38Z) - FuseSR: Super Resolution for Real-time Rendering through Efficient
Multi-resolution Fusion [38.67110413800048]
最も一般的な解決策の1つは、レンダリングオーバーヘッドを減らすために、低解像度で画像をレンダリングすることである。
本稿では,高品質なアップサンプル再構成を予測できる効率的かつ効率的な超解像法を提案する。
実験の結果,提案手法は時間的に一貫した再構築を4倍の4倍の4倍の4倍の4倍の4倍の8倍の8倍のアップサンプリングをリアルタイムに行うことができることがわかった。
論文 参考訳(メタデータ) (2023-10-15T04:01:05Z) - HumanRF: High-Fidelity Neural Radiance Fields for Humans in Motion [7.592039690054564]
我々は,多視点ビデオ入力から全身の動きをとらえる4次元動的ニューラルシーン表現であるHumanRFを紹介する。
我々の新しい表現は、高い圧縮速度で細部をキャプチャするダイナミックビデオ符号化として機能する。
このような高解像度データから生じる課題を実証し、新たに導入したHumanRFがこのデータを効果的に活用していることを示す。
論文 参考訳(メタデータ) (2023-05-10T17:59:55Z) - HyperReel: High-Fidelity 6-DoF Video with Ray-Conditioned Sampling [60.90470761333465]
提案するHyperReelは,新しい6-DoFビデオ表現である。
The two core components of HyperReel is a ray-conditioned sample prediction network which allow a high-fidelity, high frame rate rendering at high resolution and (2) compact and memory- efficient dynamic volume representation。
論文 参考訳(メタデータ) (2023-01-05T18:59:44Z) - Towards Efficient and Scale-Robust Ultra-High-Definition Image
Demoireing [71.62289021118983]
本研究では、4Kモアレ画像に対処する効率的なベースラインモデルESDNetを提案する。
我々の手法は、より軽量でありながら、最先端の手法よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-07-20T14:20:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。