論文の概要: Towards Hard-pose Virtual Try-on via 3D-aware Global Correspondence
Learning
- arxiv url: http://arxiv.org/abs/2211.14052v1
- Date: Fri, 25 Nov 2022 12:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 17:13:27.440517
- Title: Towards Hard-pose Virtual Try-on via 3D-aware Global Correspondence
Learning
- Title(参考訳): 3D対応グローバル対応学習によるハードな仮想試行に向けて
- Authors: Zaiyu Huang, Hanhui Li, Zhenyu Xie, Michael Kampffmeyer, Qingling Cai,
Xiaodan Liang
- Abstract要約: 3D対応のグローバルな対応は、グローバルな意味的相関、局所的な変形、および3D人体の幾何学的先行を共同でエンコードする信頼性のあるフローである。
対向ジェネレータは、3D認識フローによって歪んだ衣服と、対象者の画像とを入力として、フォトリアリスティックな試着結果を合成する。
- 参考スコア(独自算出の注目度): 70.75369367311897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we target image-based person-to-person virtual try-on in the
presence of diverse poses and large viewpoint variations. Existing methods are
restricted in this setting as they estimate garment warping flows mainly based
on 2D poses and appearance, which omits the geometric prior of the 3D human
body shape. Moreover, current garment warping methods are confined to localized
regions, which makes them ineffective in capturing long-range dependencies and
results in inferior flows with artifacts. To tackle these issues, we present
3D-aware global correspondences, which are reliable flows that jointly encode
global semantic correlations, local deformations, and geometric priors of 3D
human bodies. Particularly, given an image pair depicting the source and target
person, (a) we first obtain their pose-aware and high-level representations via
two encoders, and introduce a coarse-to-fine decoder with multiple refinement
modules to predict the pixel-wise global correspondence. (b) 3D parametric
human models inferred from images are incorporated as priors to regularize the
correspondence refinement process so that our flows can be 3D-aware and better
handle variations of pose and viewpoint. (c) Finally, an adversarial generator
takes the garment warped by the 3D-aware flow, and the image of the target
person as inputs, to synthesize the photo-realistic try-on result. Extensive
experiments on public benchmarks and our HardPose test set demonstrate the
superiority of our method against the SOTA try-on approaches.
- Abstract(参考訳): 本稿では,多彩なポーズや視点変化の存在下で,画像に基づく仮想試行を目標とする。
既存の方法は、主に2次元のポーズと外観に基づいて衣服の反りの流れを推定し、3次元の人体形状の幾何学的先行を省略するため、この設定で制限されている。
また,現在の衣服の反りは局所的な領域に限定されているため,長距離の依存関係を捉えるのに効果がなく,アーティファクトによる流れが劣る。
これらの課題に対処するために,グローバルな意味的相関,局所的な変形,および3次元人体の幾何学的先行を協調的にエンコードする信頼性のある3D対応のグローバル通信を提案する。
特に、ソースとターゲットの人物を描いた画像対が与えられる。
(a)まず2つのエンコーダによるポーズ認識とハイレベル表現を取得し,画素ワイドな大域対応を予測するために複数の改良モジュールを備えた粗大なデコーダを導入する。
b) 画像から推定される3次元パラメトリック人間モデルを先行として組み込んで, 対応改善プロセスの規則化を行い, フローを3次元認識し, ポーズや視点のバリエーションをよりよく扱えるようにした。
(c)最後に、対向生成装置は、3D認識フローによって歪んだ衣服と、対象者の画像とを入力として、フォトリアリスティックな試着結果を合成する。
公開ベンチマークとHardPoseテストセットに関する大規模な実験は、SOTA試行アプローチに対する我々の手法の優位性を実証している。
関連論文リスト
- FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Personalized 3D Human Pose and Shape Refinement [19.082329060985455]
回帰に基づく手法は3次元人間のポーズと形状推定の分野を支配してきた。
本稿では,初期人間のモデル推定値と対応する画像との密接な対応性を構築することを提案する。
提案手法は画像モデルアライメントの改善だけでなく,3次元精度の向上にも寄与する。
論文 参考訳(メタデータ) (2024-03-18T10:13:53Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - PONet: Robust 3D Human Pose Estimation via Learning Orientations Only [116.1502793612437]
本稿では,学習向きのみを用いて3次元ポーズを頑健に推定できる新しいPose Orientation Net(PONet)を提案する。
PONetは、局所的な画像証拠を利用して、これらの手足の3D方向を推定し、3Dポーズを復元する。
我々は,Human3.6M,MPII,MPI-INF-3DHP,3DPWを含む複数のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-12-21T12:48:48Z) - SMAP: Single-Shot Multi-Person Absolute 3D Pose Estimation [46.85865451812981]
本稿では,まず,この2.5D表現に基づいて,まず2.5D表現の集合を回帰し,さらに深部認識部分関連アルゴリズムを用いて3D絶対ポーズを再構成するシステムを提案する。
このような単発ボトムアップ方式により、システムは人物間の深度関係をよりよく学習し、推論し、3Dと2Dの両方のポーズ推定を改善することができる。
論文 参考訳(メタデータ) (2020-08-26T09:56:07Z) - Learning 3D Human Shape and Pose from Dense Body Parts [117.46290013548533]
本研究では,3次元の人体形状を学習し,身体部分の密接な対応からポーズをとるために,分解・集約ネットワーク(DaNet)を提案する。
ローカルストリームからのメッセージは集約され、回転ベースのポーズの堅牢な予測が強化される。
提案手法は,Human3.6M,UP3D,COCO,3DPWを含む屋内および実世界のデータセットで検証される。
論文 参考訳(メタデータ) (2019-12-31T15:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。