論文の概要: Adaptive Appearance Rendering
- arxiv url: http://arxiv.org/abs/2104.11931v1
- Date: Sat, 24 Apr 2021 11:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:40:41.929517
- Title: Adaptive Appearance Rendering
- Title(参考訳): 適応外観レンダリング
- Authors: Mengyao Zhai, Ruizhi Deng, Jiacheng Chen, Lei Chen, Zhiwei Deng, Greg
Mori
- Abstract要約: 目的の外観とポーズを与えられた人のイメージを生成するアプローチを提案します。
ポーズと外観の絡み合った表現は、画像の複合変動を扱うために必要である。
我々のモデルは最先端の手法よりも優れた画像や動画を生成でき、画像とビデオの両方でポーズ案内の外観レンダリングを処理できる。
- 参考スコア(独自算出の注目度): 43.97256647235803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an approach to generate images of people given a desired
appearance and pose. Disentangled representations of pose and appearance are
necessary to handle the compound variability in the resulting generated images.
Hence, we develop an approach based on intermediate representations of poses
and appearance: our pose-guided appearance rendering network firstly encodes
the targets' poses using an encoder-decoder neural network. Then the targets'
appearances are encoded by learning adaptive appearance filters using a fully
convolutional network. Finally, these filters are placed in the encoder-decoder
neural networks to complete the rendering. We demonstrate that our model can
generate images and videos that are superior to state-of-the-art methods, and
can handle pose guided appearance rendering in both image and video generation.
- Abstract(参考訳): そこで本稿では,望ましい外観とポーズを与えられた人々の画像を生成するアプローチを提案する。
生成画像の複合変動を扱うには,ポーズと外観の絡み合った表現が必要となる。
そこで本研究では,ポーズと外観の中間表現に基づくアプローチを開発し,まず,エンコーダ・デコーダニューラルネットワークを用いて対象者のポーズを符号化する。
そして、完全畳み込みネットワークを用いて適応的外観フィルタを学習することにより、ターゲットの外観を符号化する。
最後に、これらのフィルタをエンコーダデコーダニューラルネットワークに配置してレンダリングを完了させる。
本モデルでは,最先端の手法よりも優れた画像や映像を生成でき,画像と映像の両方においてポーズ案内映像のレンダリングを処理できることを実証する。
関連論文リスト
- DRDM: A Disentangled Representations Diffusion Model for Synthesizing Realistic Person Images [9.768951663960257]
本稿では,画像からリアルな画像を生成するために,DRDM(Disentangled Representations Diffusion Model)を提案する。
まず、ポーズエンコーダは、人物画像の生成を導くために、ポーズ特徴を高次元空間に符号化する。
第2に、本体部分部分部分空間疎結合ブロック(BSDB)は、ソースフィギュアの異なる本体部分から特徴を分離し、ノイズ予測ブロックの様々な層に供給する。
論文 参考訳(メタデータ) (2024-12-25T06:36:24Z) - Consistent Human Image and Video Generation with Spatially Conditioned Diffusion [82.4097906779699]
一貫性のある人中心画像とビデオ合成は、所定の参照画像との外観整合性を維持しつつ、新しいポーズを持つ画像を生成することを目的としている。
我々は,課題を空間条件付き塗装問題とみなし,対象画像をインペイントして参照との外観整合性を維持する。
このアプローチにより、参照機能により、統一された認知ネットワーク内でのポーズ準拠のターゲットの生成をガイドすることができる。
論文 参考訳(メタデータ) (2024-12-19T05:02:30Z) - Neural Rendering of Humans in Novel View and Pose from Monocular Video [68.37767099240236]
本稿では,新しい視点下で写真リアルな人間を生成し,モノクロ映像を入力として提示する新しい手法を提案する。
提案手法は,モノクラー映像を入力として,見知らぬポーズや新しい視点下での既存手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-04T03:09:20Z) - Pose-Guided High-Resolution Appearance Transfer via Progressive Training [65.92031716146865]
前例のない画像解像度で、所定の参照外観をターゲットポーズに転送するためのポーズ誘導型外観伝達ネットワークを提案する。
我々のネットワークは、局所的な知覚喪失や局所的な識別など、密集した局所記述子を用いて詳細を精査する。
我々のモデルは高品質な画像を生成し、人間の衣服の移動などの有用な応用にさらに活用することができる。
論文 参考訳(メタデータ) (2020-08-27T03:18:44Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z) - Towards Coding for Human and Machine Vision: A Scalable Image Coding
Approach [104.02201472370801]
圧縮モデルと生成モデルの両方を活用することにより,新しい画像符号化フレームワークを考案した。
高度な生成モデルを導入することで、コンパクトな特徴表現と参照画素から画像を再構成するフレキシブルネットワークを訓練する。
実験により、人間の視覚的品質と顔のランドマーク検出の両方において、我々の枠組みが優れていることが示された。
論文 参考訳(メタデータ) (2020-01-09T10:37:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。