論文の概要: Low-Barrier Dataset Collection with Real Human Body for Interactive Per-Garment Virtual Try-On
- arxiv url: http://arxiv.org/abs/2506.10468v1
- Date: Thu, 12 Jun 2025 08:18:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.64617
- Title: Low-Barrier Dataset Collection with Real Human Body for Interactive Per-Garment Virtual Try-On
- Title(参考訳): 対話型パーガーメントバーチャルトライオンのための実物を用いた低バリアデータセット収集
- Authors: Zaiqiang Wu, Yechen Li, Jingyuan Liu, Yuki Shibata, Takayuki Hori, I-Chao Shen, Takeo Igarashi,
- Abstract要約: 既存の画像ベースの仮想試行法は、しばしばフロントビューに制限され、リアルタイムのパフォーマンスが欠如している。
本研究では,実際の人体を用いた衣服ごとのデータセット収集のための低障壁手法を提案する。
- 参考スコア(独自算出の注目度): 10.776018771066294
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing image-based virtual try-on methods are often limited to the front view and lack real-time performance. While per-garment virtual try-on methods have tackled these issues by capturing per-garment datasets and training per-garment neural networks, they still encounter practical limitations: (1) the robotic mannequin used to capture per-garment datasets is prohibitively expensive for widespread adoption and fails to accurately replicate natural human body deformation; (2) the synthesized garments often misalign with the human body. To address these challenges, we propose a low-barrier approach for collecting per-garment datasets using real human bodies, eliminating the necessity for a customized robotic mannequin. We also introduce a hybrid person representation that enhances the existing intermediate representation with a simplified DensePose map. This ensures accurate alignment of synthesized garment images with the human body and enables human-garment interaction without the need for customized wearable devices. We performed qualitative and quantitative evaluations against other state-of-the-art image-based virtual try-on methods and conducted ablation studies to demonstrate the superiority of our method regarding image quality and temporal consistency. Finally, our user study results indicated that most participants found our virtual try-on system helpful for making garment purchasing decisions.
- Abstract(参考訳): 既存の画像ベースの仮想試行法は、しばしばフロントビューに制限され、リアルタイムのパフォーマンスが欠如している。
ガーメント毎の仮想試行法は, ガーメント毎のデータセットを収集し, ガーメント毎のニューラルネットワークを訓練することによって, これらの課題に対処してきたが, 1) ガーメント毎のデータセットを捕捉するロボットマネキンは, 広く普及するには極めて高価であり, 自然人の身体の変形を正確に再現することができない。
これらの課題に対処するために、実際の人体を用いて着衣ごとのデータセットを収集するローバリアアプローチを提案し、カスタマイズされたロボットマネキンの必要性を排除した。
また,既存の中間表現を単純化したDensePoseマップで拡張するハイブリッド人表現も導入する。
これにより、合成衣料品画像と人体との正確なアライメントが保証され、カスタマイズされたウェアラブルデバイスを必要とせずに、人着インタラクションが可能になる。
我々は,他の最先端画像ベース仮想試行法に対して質的,定量的な評価を行い,画像品質と時間的整合性に関する手法の優位性を実証するためにアブレーション研究を行った。
最後に,ユーザ調査の結果から,ほとんどの参加者が,衣料品購入決定に有用な仮想試着システムを見出した。
関連論文リスト
- Enhancing Virtual Try-On with Synthetic Pairs and Error-Aware Noise Scheduling [20.072689146353348]
本研究では,着物の単一画像から(人間,合成衣服)対を生成する衣服抽出モデルを提案する。
また,局所的な生成誤りを外科的にターゲットとした誤り認識型Schr"odinger Bridge(EARSB)を提案する。
ユーザスタディでは,平均59%のケースで,このモデルが好まれる。
論文 参考訳(メタデータ) (2025-01-08T18:25:50Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Pose Guided Human Image Synthesis with Partially Decoupled GAN [25.800174118151638]
Pose Guided Human Image Synthesis (PGHIS) は、人間のイメージを基準ポーズから目標ポーズへ変換する難しいタスクである。
本研究では,人体を複数の部分に分解し,現実的な人物像の合成を誘導する手法を提案する。
さらに,PGHISのためのマルチヘッドアテンションベースモジュールを設計する。
論文 参考訳(メタデータ) (2022-10-07T15:31:37Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。