論文の概要: FDA-GAN: Flow-based Dual Attention GAN for Human Pose Transfer
- arxiv url: http://arxiv.org/abs/2112.00281v1
- Date: Wed, 1 Dec 2021 05:10:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 14:37:15.336717
- Title: FDA-GAN: Flow-based Dual Attention GAN for Human Pose Transfer
- Title(参考訳): FDA-GAN : 血液移植のためのフローベースデュアルアテンションGAN
- Authors: Liyuan Ma, Kejie Huang, Dongxu Wei, Zhaoyan Ming, Haibin Shen
- Abstract要約: 本稿では,フローベースデュアルアテンションGAN (FDA-GAN) を提案する。
転送時のポーズとグローバル位置の整合性を維持するために,対象人物から対象人物への適応正規化学習のためのポーズ正規化ネットワークを設計する。
定性的かつ定量的な結果から,本手法はパブリックiPERおよびDeepFashionデータセットの最先端モデルよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 3.08426078422188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human pose transfer aims at transferring the appearance of the source person
to the target pose. Existing methods utilizing flow-based warping for non-rigid
human image generation have achieved great success. However, they fail to
preserve the appearance details in synthesized images since the spatial
correlation between the source and target is not fully exploited. To this end,
we propose the Flow-based Dual Attention GAN (FDA-GAN) to apply occlusion- and
deformation-aware feature fusion for higher generation quality. Specifically,
deformable local attention and flow similarity attention, constituting the dual
attention mechanism, can derive the output features responsible for deformable-
and occlusion-aware fusion, respectively. Besides, to maintain the pose and
global position consistency in transferring, we design a pose normalization
network for learning adaptive normalization from the target pose to the source
person. Both qualitative and quantitative results show that our method
outperforms state-of-the-art models in public iPER and DeepFashion datasets.
- Abstract(参考訳): 人間のポーズ転送は、ソースの人物の外観をターゲットのポーズに移すことを目的としている。
非剛体画像生成のためのフローベースワープを利用した既存の手法は大きな成功を収めた。
しかし、ソースとターゲットの空間的相関が十分に活用されていないため、合成画像の外観詳細を保存できない。
そこで本研究では,fda-gan(flow-based dual attention gan)を提案する。
具体的には, 2重注意機構を構成する変形可能な局所的注意とフロー類似性注意は, 変形性および閉塞性認識の融合に関与する出力特性を導出することができる。
さらに、転送時のポーズとグローバル位置の整合性を維持するために、ターゲットのポーズからソースの人物への適応正規化を学習するためのポーズ正規化ネットワークを設計する。
定性的かつ定量的な結果から,本手法はパブリックiPERおよびDeepFashionデータセットの最先端モデルよりも優れていることが示された。
関連論文リスト
- Advancing Pose-Guided Image Synthesis with Progressive Conditional Diffusion Models [13.019535928387702]
本稿では,ターゲット下の人物像とソースポーズのギャップを段階的に橋渡しするプログレッシブ条件拡散モデル(PCDM)を提案する。
定性的かつ定量的な結果は,難解なシナリオ下で提案したPCDMの一貫性と光現実性を示すものである。
論文 参考訳(メタデータ) (2023-10-10T05:13:17Z) - Towards Hard-pose Virtual Try-on via 3D-aware Global Correspondence
Learning [70.75369367311897]
3D対応のグローバルな対応は、グローバルな意味的相関、局所的な変形、および3D人体の幾何学的先行を共同でエンコードする信頼性のあるフローである。
対向ジェネレータは、3D認識フローによって歪んだ衣服と、対象者の画像とを入力として、フォトリアリスティックな試着結果を合成する。
論文 参考訳(メタデータ) (2022-11-25T12:16:21Z) - Human Pose Transfer with Augmented Disentangled Feature Consistency [28.744108771350078]
人間のポーズ転送を容易にするために,DFC-Net(Disentangled Feature Consistency)を付加したポーズ転送ネットワークを提案する。
ソースとターゲット人を含む一対のイメージが与えられた後、DFC-Netはソースからそれぞれポーズと静的情報を抽出し、ターゲット人のイメージをソースから所望のポーズで合成する。
論文 参考訳(メタデータ) (2021-07-23T01:25:07Z) - Transformer-Based Source-Free Domain Adaptation [134.67078085569017]
本研究では,ソースフリードメイン適応(SFDA)の課題について検討する。
我々は、FDAの一般化モデルを学ぶためのTransformer(TransDA)という、汎用的で効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-28T23:06:26Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z) - Structure-aware Person Image Generation with Pose Decomposition and
Semantic Correlation [29.727033198797518]
高品質な人物画像生成のための構造認識フローベース手法を提案する。
人体を異なる意味部分に分解し、異なるネットワークを適用してこれらの部分のフロー場を別々に予測する。
提案手法は,ポーズの相違が大きい場合に高品質な結果を生成することができ,定性比較と定量的比較の両方において最先端の手法より優れる。
論文 参考訳(メタデータ) (2021-02-05T03:07:57Z) - PoNA: Pose-guided Non-local Attention for Human Pose Transfer [105.14398322129024]
本稿では, 簡易ブロックを用いたGAN(Generative Adversarial Network)を用いた新しいポーズ転送手法を提案する。
我々のモデルはより鮮明でよりリアルな画像を生成するが、パラメータは少なく、速度も速い。
論文 参考訳(メタデータ) (2020-12-13T12:38:29Z) - Liquid Warping GAN with Attention: A Unified Framework for Human Image
Synthesis [58.05389586712485]
我々は、人間の動きの模倣、外見の移入、新しい視点の合成など、人間の画像合成に取り組む。
本稿では,ポーズと形状を乱す3次元ボディーメッシュ回収モジュールを提案する。
我々はまた、人間の動きの模倣、外観伝達、新しいビュー合成を評価するために、新しいデータセット、すなわちiPERデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-18T02:57:47Z) - Neural Pose Transfer by Spatially Adaptive Instance Normalization [73.04483812364127]
本稿では,最新の画像スタイル転送技術を用いてポーズ転送を解く,最初のニューラルポーズ転送モデルを提案する。
私たちのモデルは、ソースとターゲットメッシュ間の通信を一切必要としません。
実験により, 提案モデルでは, 対象メッシュへの変形を効果的に伝達することができ, 未確認の同一性やメッシュのポーズに対処できる優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-03-16T14:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。