論文の概要: FDA-GAN: Flow-based Dual Attention GAN for Human Pose Transfer
- arxiv url: http://arxiv.org/abs/2112.00281v1
- Date: Wed, 1 Dec 2021 05:10:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 14:37:15.336717
- Title: FDA-GAN: Flow-based Dual Attention GAN for Human Pose Transfer
- Title(参考訳): FDA-GAN : 血液移植のためのフローベースデュアルアテンションGAN
- Authors: Liyuan Ma, Kejie Huang, Dongxu Wei, Zhaoyan Ming, Haibin Shen
- Abstract要約: 本稿では,フローベースデュアルアテンションGAN (FDA-GAN) を提案する。
転送時のポーズとグローバル位置の整合性を維持するために,対象人物から対象人物への適応正規化学習のためのポーズ正規化ネットワークを設計する。
定性的かつ定量的な結果から,本手法はパブリックiPERおよびDeepFashionデータセットの最先端モデルよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 3.08426078422188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human pose transfer aims at transferring the appearance of the source person
to the target pose. Existing methods utilizing flow-based warping for non-rigid
human image generation have achieved great success. However, they fail to
preserve the appearance details in synthesized images since the spatial
correlation between the source and target is not fully exploited. To this end,
we propose the Flow-based Dual Attention GAN (FDA-GAN) to apply occlusion- and
deformation-aware feature fusion for higher generation quality. Specifically,
deformable local attention and flow similarity attention, constituting the dual
attention mechanism, can derive the output features responsible for deformable-
and occlusion-aware fusion, respectively. Besides, to maintain the pose and
global position consistency in transferring, we design a pose normalization
network for learning adaptive normalization from the target pose to the source
person. Both qualitative and quantitative results show that our method
outperforms state-of-the-art models in public iPER and DeepFashion datasets.
- Abstract(参考訳): 人間のポーズ転送は、ソースの人物の外観をターゲットのポーズに移すことを目的としている。
非剛体画像生成のためのフローベースワープを利用した既存の手法は大きな成功を収めた。
しかし、ソースとターゲットの空間的相関が十分に活用されていないため、合成画像の外観詳細を保存できない。
そこで本研究では,fda-gan(flow-based dual attention gan)を提案する。
具体的には, 2重注意機構を構成する変形可能な局所的注意とフロー類似性注意は, 変形性および閉塞性認識の融合に関与する出力特性を導出することができる。
さらに、転送時のポーズとグローバル位置の整合性を維持するために、ターゲットのポーズからソースの人物への適応正規化を学習するためのポーズ正規化ネットワークを設計する。
定性的かつ定量的な結果から,本手法はパブリックiPERおよびDeepFashionデータセットの最先端モデルよりも優れていることが示された。
関連論文リスト
- Consistent Human Image and Video Generation with Spatially Conditioned Diffusion [82.4097906779699]
一貫性のある人中心画像とビデオ合成は、所定の参照画像との外観整合性を維持しつつ、新しいポーズを持つ画像を生成することを目的としている。
我々は,課題を空間条件付き塗装問題とみなし,対象画像をインペイントして参照との外観整合性を維持する。
このアプローチにより、参照機能により、統一された認知ネットワーク内でのポーズ準拠のターゲットの生成をガイドすることができる。
論文 参考訳(メタデータ) (2024-12-19T05:02:30Z) - Learning Flow Fields in Attention for Controllable Person Image Generation [59.10843756343987]
制御可能な人物画像生成は、参照画像に条件付けされた人物画像を生成することを目的としている。
そこで本研究では,対象クエリに対して,適切な参照キーへの参照を明示的にガイドする学習フロー場(Leffa)を提案する。
Leffaは外観(仮想試行)とポーズ(目的移動)の制御における最先端のパフォーマンスを実現し、細かなディテール歪みを著しく低減する。
論文 参考訳(メタデータ) (2024-12-11T15:51:14Z) - Fusion Embedding for Pose-Guided Person Image Synthesis with Diffusion Model [2.7708222692419735]
Pose-Guided Person Image Synthesis (PGPIS) は、ターゲットポーズに対応する高品質な人物画像の合成を目的としている。
ほとんどのアプローチでは、ターゲットポーズとソースイメージの表現を抽出する。
拡散モデル(FPDM)を用いたPGPISの融合埋め込みを提案する。
論文 参考訳(メタデータ) (2024-12-10T09:25:01Z) - Advancing Pose-Guided Image Synthesis with Progressive Conditional Diffusion Models [13.019535928387702]
本稿では,ターゲット下の人物像とソースポーズのギャップを段階的に橋渡しするプログレッシブ条件拡散モデル(PCDM)を提案する。
定性的かつ定量的な結果は,難解なシナリオ下で提案したPCDMの一貫性と光現実性を示すものである。
論文 参考訳(メタデータ) (2023-10-10T05:13:17Z) - Human Pose Transfer with Augmented Disentangled Feature Consistency [28.744108771350078]
人間のポーズ転送を容易にするために,DFC-Net(Disentangled Feature Consistency)を付加したポーズ転送ネットワークを提案する。
ソースとターゲット人を含む一対のイメージが与えられた後、DFC-Netはソースからそれぞれポーズと静的情報を抽出し、ターゲット人のイメージをソースから所望のポーズで合成する。
論文 参考訳(メタデータ) (2021-07-23T01:25:07Z) - Transformer-Based Source-Free Domain Adaptation [134.67078085569017]
本研究では,ソースフリードメイン適応(SFDA)の課題について検討する。
我々は、FDAの一般化モデルを学ぶためのTransformer(TransDA)という、汎用的で効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-28T23:06:26Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z) - PoNA: Pose-guided Non-local Attention for Human Pose Transfer [105.14398322129024]
本稿では, 簡易ブロックを用いたGAN(Generative Adversarial Network)を用いた新しいポーズ転送手法を提案する。
我々のモデルはより鮮明でよりリアルな画像を生成するが、パラメータは少なく、速度も速い。
論文 参考訳(メタデータ) (2020-12-13T12:38:29Z) - Neural Pose Transfer by Spatially Adaptive Instance Normalization [73.04483812364127]
本稿では,最新の画像スタイル転送技術を用いてポーズ転送を解く,最初のニューラルポーズ転送モデルを提案する。
私たちのモデルは、ソースとターゲットメッシュ間の通信を一切必要としません。
実験により, 提案モデルでは, 対象メッシュへの変形を効果的に伝達することができ, 未確認の同一性やメッシュのポーズに対処できる優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-03-16T14:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。