論文の概要: From Air to Wear: Personalized 3D Digital Fashion with AR/VR Immersive 3D Sketching
- arxiv url: http://arxiv.org/abs/2505.09998v1
- Date: Thu, 15 May 2025 06:22:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.20292
- Title: From Air to Wear: Personalized 3D Digital Fashion with AR/VR Immersive 3D Sketching
- Title(参考訳): 空気からウェアラブルへ:AR/VRの没入型3Dスケッチによるパーソナライズされた3Dデジタルファッション
- Authors: Ying Zang, Yuanqi Hu, Xinyu Chen, Yuxia Xu, Suhui Wang, Chunan Yu, Lanyun Zhu, Deyi Ji, Xin Xu, Tianrun Chen,
- Abstract要約: 本稿では,一般ユーザーが高品質なデジタル衣料品を作成できるようにする3Dスケッチ駆動型3D衣料作成フレームワークを提案する。
条件付き拡散モデル、共有潜在空間で訓練されたスケッチエンコーダ、適応型カリキュラム学習戦略を組み合わせることで、システムは不正確で自由な入力を解釈し、現実的でパーソナライズされた衣服を生成する。
トレーニングデータの不足に対処するため,新しい3D衣料とユーザ作成スケッチのデータセットである KO3DClothes も導入した。
- 参考スコア(独自算出の注目度): 17.901040166369487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of immersive consumer electronics, such as AR/VR headsets and smart devices, people increasingly seek ways to express their identity through virtual fashion. However, existing 3D garment design tools remain inaccessible to everyday users due to steep technical barriers and limited data. In this work, we introduce a 3D sketch-driven 3D garment generation framework that empowers ordinary users - even those without design experience - to create high-quality digital clothing through simple 3D sketches in AR/VR environments. By combining a conditional diffusion model, a sketch encoder trained in a shared latent space, and an adaptive curriculum learning strategy, our system interprets imprecise, free-hand input and produces realistic, personalized garments. To address the scarcity of training data, we also introduce KO3DClothes, a new dataset of paired 3D garments and user-created sketches. Extensive experiments and user studies confirm that our method significantly outperforms existing baselines in both fidelity and usability, demonstrating its promise for democratized fashion design on next-generation consumer platforms.
- Abstract(参考訳): AR/VRヘッドセットやスマートデバイスといった没入型家電の時代に、人々はバーチャルファッションを通じてアイデンティティを表現する方法を模索している。
しかし、技術的な障壁と限られたデータのために、既存の3D衣料品デザインツールは日常的に利用できないままである。
本研究では,AR/VR環境におけるシンプルな3Dスケッチによる高品質なデジタル衣料の製作を可能にする3Dスケッチ駆動型3D衣料生成フレームワークを提案する。
条件付き拡散モデル、共有潜在空間で訓練されたスケッチエンコーダ、適応型カリキュラム学習戦略を組み合わせることで、システムは不正確で自由な入力を解釈し、現実的でパーソナライズされた衣服を生成する。
トレーニングデータの不足に対処するため,新しい3D衣料とユーザ作成スケッチのデータセットである KO3DClothes も導入した。
広汎な実験とユーザスタディにより、われわれの手法は、既存ベースラインの忠実さとユーザビリティの両方において著しく優れており、次世代の消費者プラットフォームにおけるファッションデザインの民主化を約束することを示す。
関連論文リスト
- Virtual Trial Room with Computer Vision and Machine Learning [0.0]
顧客は、適合性と適合性に関する確実性がないため、しばしばウェアラブル製品を購入することをためらう。
Virtual Trial Room with Computer Vision and Machine Learningと呼ばれるプラットフォームは、顧客がプロダクトが適合するかどうかを簡単にチェックできるように設計されている。
DECAモデルを用いて1枚の2次元画像から、人間の頭部のAI生成3次元モデルを作成する。
この3Dモデルは、実世界の計測に基づいて人間の頭の上に装着された、カスタムメイドのガラスの3Dモデルで重畳された。
論文 参考訳(メタデータ) (2024-12-14T06:50:10Z) - Magic3DSketch: Create Colorful 3D Models From Sketch-Based 3D Modeling Guided by Text and Language-Image Pre-Training [2.9600148687385786]
CAD(Computer-Aided Design)のような従来の手法は、しばしば労働集約的でスキルの要求が多すぎるため、初心者には難しい。
提案手法であるMagic3DSketchは,スケッチを符号化して3Dメッシュを予測し,テキスト記述でガイドする手法である。
また,本手法は既存のテキスト・ツー・3D手法と比較して制御性が高い。
論文 参考訳(メタデータ) (2024-07-27T09:59:13Z) - Design2Cloth: 3D Cloth Generation from 2D Masks [34.80461276448817]
我々は2000以上の被験者スキャンから実世界のデータセットをトレーニングした高忠実度3D生成モデルであるDesign2Clothを提案する。
定性的かつ定量的な実験のシリーズでは、Design2Clothが現在の最先端の織物生成モデルよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2024-04-03T12:32:13Z) - Deep3DSketch+: Rapid 3D Modeling from Single Free-hand Sketches [15.426513559370086]
本稿では,1つのフリーハンドスケッチのみを用いて,複数のスケッチやビュー情報を入力せずに3次元モデリングを行う,新しいエンドツーエンドアプローチであるDeep3DSketch+を紹介する。
実験により, 合成データと実データの両方において, 最新技術(SOTA)の性能が有効であることを実証した。
論文 参考訳(メタデータ) (2023-09-22T17:12:13Z) - SketchMetaFace: A Learning-based Sketching Interface for High-fidelity
3D Character Face Modeling [69.28254439393298]
SketchMetaFaceは、アマチュアユーザーを対象に、高忠実度3D顔を数分でモデリングするスケッチシステムである。
我々は"Implicit and Depth Guided Mesh Modeling"(IDGMM)と呼ばれる新しい学習ベース手法を開発した。
メッシュ、暗黙、深度表現の利点を融合させ、高い効率で高品質な結果を達成する。
論文 参考訳(メタデータ) (2023-07-03T07:41:07Z) - Make Your Brief Stroke Real and Stereoscopic: 3D-Aware Simplified Sketch
to Portrait Generation [51.64832538714455]
既存の研究は2次元平面の像のみを固定ビューで生成し、その結果を鮮明にしない。
本稿では立体視による簡易スケッチ・トゥ・ポートレート(SSSP)について述べる。
我々の重要な洞察は、三面体ベースの3D認識生成モデルの事前知識を十分に活用できるスケッチ認識制約を設計することである。
論文 参考訳(メタデータ) (2023-02-14T06:28:42Z) - Towards 3D VR-Sketch to 3D Shape Retrieval [128.47604316459905]
入力モダリティとしての3Dスケッチの利用について検討し、検索を行うVRシナリオを提唱する。
この新しい3DVR-Sketchから3D形状の検索問題に対する最初のスタンプとして、私たちは4つのコントリビューションを行います。
論文 参考訳(メタデータ) (2022-09-20T22:04:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。