論文の概要: Adaptive Appearance Rendering
- arxiv url: http://arxiv.org/abs/2104.11931v1
- Date: Sat, 24 Apr 2021 11:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:40:41.929517
- Title: Adaptive Appearance Rendering
- Title(参考訳): 適応外観レンダリング
- Authors: Mengyao Zhai, Ruizhi Deng, Jiacheng Chen, Lei Chen, Zhiwei Deng, Greg
Mori
- Abstract要約: 目的の外観とポーズを与えられた人のイメージを生成するアプローチを提案します。
ポーズと外観の絡み合った表現は、画像の複合変動を扱うために必要である。
我々のモデルは最先端の手法よりも優れた画像や動画を生成でき、画像とビデオの両方でポーズ案内の外観レンダリングを処理できる。
- 参考スコア(独自算出の注目度): 43.97256647235803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an approach to generate images of people given a desired
appearance and pose. Disentangled representations of pose and appearance are
necessary to handle the compound variability in the resulting generated images.
Hence, we develop an approach based on intermediate representations of poses
and appearance: our pose-guided appearance rendering network firstly encodes
the targets' poses using an encoder-decoder neural network. Then the targets'
appearances are encoded by learning adaptive appearance filters using a fully
convolutional network. Finally, these filters are placed in the encoder-decoder
neural networks to complete the rendering. We demonstrate that our model can
generate images and videos that are superior to state-of-the-art methods, and
can handle pose guided appearance rendering in both image and video generation.
- Abstract(参考訳): そこで本稿では,望ましい外観とポーズを与えられた人々の画像を生成するアプローチを提案する。
生成画像の複合変動を扱うには,ポーズと外観の絡み合った表現が必要となる。
そこで本研究では,ポーズと外観の中間表現に基づくアプローチを開発し,まず,エンコーダ・デコーダニューラルネットワークを用いて対象者のポーズを符号化する。
そして、完全畳み込みネットワークを用いて適応的外観フィルタを学習することにより、ターゲットの外観を符号化する。
最後に、これらのフィルタをエンコーダデコーダニューラルネットワークに配置してレンダリングを完了させる。
本モデルでは,最先端の手法よりも優れた画像や映像を生成でき,画像と映像の両方においてポーズ案内映像のレンダリングを処理できることを実証する。
関連論文リスト
- DrivingForward: Feed-forward 3D Gaussian Splatting for Driving Scene Reconstruction from Flexible Surround-view Input [45.04354435388718]
フレキシブル・サラウンド・ビュー・インプットから運転シーンを再構成するフィードフォワードガウス・スプレイティング・モデルを提案する。
我々は、ポーズネットワーク、ディープネットワーク、およびガウスネットワークを共同でトレーニングし、運転シーンを表すプリミティブを予測する。
提案モデルでは,既存のフィードフォワードやシーン最適化の手法よりも再現性が高い。
論文 参考訳(メタデータ) (2024-09-19T13:16:04Z) - HR Human: Modeling Human Avatars with Triangular Mesh and High-Resolution Textures from Videos [52.23323966700072]
本研究では,モノクロ映像から高精細な物理材料テクスチャとメッシュを付加したアバターの取得のための枠組みを提案する。
本手法では,モノクロ映像からの情報を組み合わせて仮想多視点画像の合成を行う新しい情報融合方式を提案する。
実験により, 提案手法は, 高忠実度で従来の表現よりも優れており, この明示的な結果は共通三角形への展開をサポートすることが示された。
論文 参考訳(メタデータ) (2024-05-18T11:49:09Z) - Neural Rendering of Humans in Novel View and Pose from Monocular Video [68.37767099240236]
本稿では,新しい視点下で写真リアルな人間を生成し,モノクロ映像を入力として提示する新しい手法を提案する。
提案手法は,モノクラー映像を入力として,見知らぬポーズや新しい視点下での既存手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-04T03:09:20Z) - Pose-Guided High-Resolution Appearance Transfer via Progressive Training [65.92031716146865]
前例のない画像解像度で、所定の参照外観をターゲットポーズに転送するためのポーズ誘導型外観伝達ネットワークを提案する。
我々のネットワークは、局所的な知覚喪失や局所的な識別など、密集した局所記述子を用いて詳細を精査する。
我々のモデルは高品質な画像を生成し、人間の衣服の移動などの有用な応用にさらに活用することができる。
論文 参考訳(メタデータ) (2020-08-27T03:18:44Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z) - Towards Coding for Human and Machine Vision: A Scalable Image Coding
Approach [104.02201472370801]
圧縮モデルと生成モデルの両方を活用することにより,新しい画像符号化フレームワークを考案した。
高度な生成モデルを導入することで、コンパクトな特徴表現と参照画素から画像を再構成するフレキシブルネットワークを訓練する。
実験により、人間の視覚的品質と顔のランドマーク検出の両方において、我々の枠組みが優れていることが示された。
論文 参考訳(メタデータ) (2020-01-09T10:37:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。