論文の概要: GlamTry: Advancing Virtual Try-On for High-End Accessories
- arxiv url: http://arxiv.org/abs/2409.14553v1
- Date: Sun, 22 Sep 2024 18:29:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 22:19:40.829984
- Title: GlamTry: Advancing Virtual Try-On for High-End Accessories
- Title(参考訳): GlamTry: ハイエンドアクセサリーのための仮想トライオンの強化
- Authors: Ting-Yu Chang, Seretsi Khabane Lekena,
- Abstract要約: 既存の仮想試用モデルは、主に衣料品に焦点を当てているが、アクセサリーの市場はギャップがある。
本研究は,VITON-HDなどの衣服用仮想試着モデルの応用について検討し,他のコンピュータビジョンモデルと統合する。
その結果、小さなデータセットであっても、衣服の原型モデルと比較して位置予測が改善された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The paper aims to address the lack of photorealistic virtual try-on models for accessories such as jewelry and watches, which are particularly relevant for online retail applications. While existing virtual try-on models focus primarily on clothing items, there is a gap in the market for accessories. This research explores the application of techniques from 2D virtual try-on models for clothing, such as VITON-HD, and integrates them with other computer vision models, notably MediaPipe Hand Landmarker. Drawing on existing literature, the study customizes and retrains a unique model using accessory-specific data and network architecture modifications to assess the feasibility of extending virtual try-on technology to accessories. Results demonstrate improved location prediction compared to the original model for clothes, even with a small dataset. This underscores the model's potential with larger datasets exceeding 10,000 images, paving the way for future research in virtual accessory try-on applications.
- Abstract(参考訳): 本論文は,ジュエリーや時計などのアクセサリーのフォトリアリスティックな仮想試行モデルが欠如していることに対処することを目的としている。
既存の仮想試用モデルは、主に衣料品に焦点を当てているが、アクセサリーの市場はギャップがある。
本研究は,VITON-HDなどの衣服用2次元仮想試着モデルの応用について検討し,他のコンピュータビジョンモデル,特にMediaPipe Hand Landmarkerと統合する。
既存の文献に基づいて、この研究はアクセサリー固有のデータとネットワークアーキテクチャの変更を使用してユニークなモデルをカスタマイズし、トレーニングし、仮想トライオン技術をアクセサリーに拡張する可能性を評価する。
その結果、小さなデータセットであっても、衣服の原型モデルと比較して位置予測が改善された。
これは、このモデルの可能性を1万枚を超える大きなデータセットで示し、仮想アクセサリートライオンアプリケーションにおける将来の研究の道を開くものだ。
関連論文リスト
- SKT: Integrating State-Aware Keypoint Trajectories with Vision-Language Models for Robotic Garment Manipulation [82.61572106180705]
本稿では、視覚言語モデル(VLM)を用いて、様々な衣服カテゴリーにおけるキーポイント予測を改善する統一的なアプローチを提案する。
我々は、高度なシミュレーション技術を用いて大規模な合成データセットを作成し、大規模な実世界のデータを必要としないスケーラブルなトレーニングを可能にした。
実験結果から, VLM法はキーポイント検出精度とタスク成功率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-09-26T17:26:16Z) - Self-Supervised Vision Transformer for Enhanced Virtual Clothes Try-On [21.422611451978863]
本稿では,仮想衣料試着において,自己監督型視覚変換器(ViT)と拡散モデルを用いた革新的なアプローチを提案する。
提案手法は,ViTが生成するローカル衣料品のイメージ埋め込みとグローバルな衣料品との対比により,ディテールの強調を強調する。
実験結果は、仮想試行体験における現実性と詳細の精度の大幅な進歩を示す。
論文 参考訳(メタデータ) (2024-06-15T07:46:22Z) - AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - FashionFail: Addressing Failure Cases in Fashion Object Detection and Segmentation [7.483981721542115]
FashionFailは、オブジェクトの検出とセグメンテーションのためのEコマースイメージを備えた新しいデータセットである。
分析の結果,Attribute-Mask R-CNN や Fashionformer など,主要なモデルの欠点が明らかになった。
本稿では,一般的な障害を緩和し,モデルロバスト性を改善するために,単純データ拡張を用いたベースラインアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-12T16:28:30Z) - Mobile Fitting Room: On-device Virtual Try-on via Diffusion Models [19.10976982327356]
Mobile Fitting Roomは、デバイス上での拡散ベースの仮想トライオンシステムである。
利用シナリオは、私たちのツールが顧客に対してシームレスでインタラクティブな仮想試行体験を提供する方法を強調します。
論文 参考訳(メタデータ) (2024-02-02T20:05:45Z) - DM-VTON: Distilled Mobile Real-time Virtual Try-On [16.35842298296878]
Distilled Mobile Real-time Virtual Try-On (DM-VTON) は、シンプルで効率的な仮想トライオンフレームワークである。
学生ネットワーク内に効率的なモバイル生成モジュールを導入し,実行時間を大幅に削減する。
実験結果から,提案手法は1台のNvidia Tesla T4 GPUで毎秒40フレームを実現することができることがわかった。
論文 参考訳(メタデータ) (2023-08-26T07:46:27Z) - Objaverse: A Universe of Annotated 3D Objects [53.2537614157313]
800K以上の(そして成長する)3Dモデルと記述タグ,キャプション,アニメーションを備えたオブジェクトの大規模なデータセットであるAverse 1.0を提示する。
多様な3Dモデルのトレーニング、LVISベンチマークでのテールカテゴリセグメンテーションの改善、エンボディードビジョンモデルのためのオープン語彙オブジェクトナビゲーションモデルのトレーニング、そしてビジョンモデルのロバストネス分析のための新しいベンチマークを作成する。
論文 参考訳(メタデータ) (2022-12-15T18:56:53Z) - Multiface: A Dataset for Neural Face Rendering [108.44505415073579]
本研究では,新しいマルチビュー,高解像度のヒューマン・フェイス・データセットであるMultifaceを提案する。
顔のパフォーマンスの高解像度同期映像をキャプチャする大規模なマルチカメラ装置であるMugsyを紹介する。
Multifaceの目的は、学術コミュニティにおける高品質データへのアクセシビリティのギャップを埋め、VRテレプレゼンスの研究を可能にすることである。
論文 参考訳(メタデータ) (2022-07-22T17:55:39Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。