論文の概要: ARShoe: Real-Time Augmented Reality Shoe Try-on System on Smartphones
- arxiv url: http://arxiv.org/abs/2108.10515v1
- Date: Tue, 24 Aug 2021 03:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 20:01:28.589510
- Title: ARShoe: Real-Time Augmented Reality Shoe Try-on System on Smartphones
- Title(参考訳): ARShoe:スマートフォンのリアルタイム拡張現実シューオンシステム
- Authors: Shan An, Guangfu Che, Jinghao Guo, Haogang Zhu, Junjie Ye, Fangru
Zhou, Zhaoqi Zhu, Dong Wei, Aishan Liu, Wei Zhang
- Abstract要約: この研究は、スマートフォン、すなわちARShoeのためのリアルタイム拡張現実バーチャル靴試着システムを提案する。
ARShoeは、ポーズ推定とセグメンテーションを同時に実現するために、新しいマルチブランチネットワークを採用している。
トレーニングと評価のために,複数の仮想靴試着タスク関連ラベルを用いた,最初の大規模フットベンチマークを構築した。
- 参考スコア(独自算出の注目度): 14.494454213703111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Virtual try-on technology enables users to try various fashion items using
augmented reality and provides a convenient online shopping experience.
However, most previous works focus on the virtual try-on for clothes while
neglecting that for shoes, which is also a promising task. To this concern,
this work proposes a real-time augmented reality virtual shoe try-on system for
smartphones, namely ARShoe. Specifically, ARShoe adopts a novel multi-branch
network to realize pose estimation and segmentation simultaneously. A solution
to generate realistic 3D shoe model occlusion during the try-on process is
presented. To achieve a smooth and stable try-on effect, this work further
develop a novel stabilization method. Moreover, for training and evaluation, we
construct the very first large-scale foot benchmark with multiple virtual shoe
try-on task-related labels annotated. Exhaustive experiments on our newly
constructed benchmark demonstrate the satisfying performance of ARShoe.
Practical tests on common smartphones validate the real-time performance and
stabilization of the proposed approach.
- Abstract(参考訳): 仮想トライオン技術により、ユーザーは拡張現実を使ってさまざまなファッションアイテムを試すことができ、便利なオンラインショッピング体験を提供する。
しかし、以前の作品の多くは衣服の仮想試着に焦点を合わせ、靴の試着を無視している。
そこで本研究では,スマートフォン用のリアルタイム拡張現実バーチャル靴試着システム,ARShoeを提案する。
具体的には、ポーズ推定とセグメンテーションを同時に実現するために、新しいマルチブランチネットワークを採用する。
試着中にリアルな3Dシューズモデル閉塞を発生させるソリューションを提示する。
円滑で安定な試行効果を達成するため,本研究は新たな安定化法をさらに発展させる。
さらに, トレーニングと評価のために, 仮想シューズ試用タスク関連ラベルをアノテーションで付加した, 初の大規模フットベンチマークを構築した。
新たに構築したベンチマーク実験では,ARShoeの満足度が実証された。
スマートフォンの実用化試験では,提案手法のリアルタイム性能と安定化が検証された。
関連論文リスト
- Hierarchical Cross-Attention Network for Virtual Try-On [59.50297858307268]
我々は,仮想試行課題に対する革新的な解決策を提示する:我々の小説HCANet(Hierarchical Cross-Attention Network)
HCANetは、幾何学的マッチングと試行という2つの主要なステージで作られており、それぞれが現実的な仮想試行の結果を提供する上で重要な役割を果たす。
HCANetの重要な特徴は、新しい階層的クロスアテンション(HCA)ブロックを両方のステージに組み込むことで、個人と衣服のモダリティ間の長距離相関を効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-11-23T12:39:58Z) - GarmentLab: A Unified Simulation and Benchmark for Garment Manipulation [12.940189262612677]
GarmentLabは、変形可能なオブジェクトと衣料品の操作のために設計された、コンテンツリッチなベンチマークと現実的なシミュレーションである。
私たちのベンチマークには、さまざまな種類の衣料品、ロボットシステム、マニピュレータが含まれています。
これらの課題に対して、最先端のビジョン手法、強化学習、模倣学習アプローチを評価した。
論文 参考訳(メタデータ) (2024-11-02T10:09:08Z) - ShoeModel: Learning to Wear on the User-specified Shoes via Diffusion Model [60.60623356092564]
そこで本研究では,靴に作用するヒトの足の可塑性画像を生成するための靴装用システムShoe-Modelを提案する。
ベースラインと比較して、私たちのShoeModelは、異なるタイプの靴よりも一般化され、与えられた靴のID一貫性を維持することができる。
論文 参考訳(メタデータ) (2024-04-07T06:56:51Z) - DM-VTON: Distilled Mobile Real-time Virtual Try-On [16.35842298296878]
Distilled Mobile Real-time Virtual Try-On (DM-VTON) は、シンプルで効率的な仮想トライオンフレームワークである。
学生ネットワーク内に効率的なモバイル生成モジュールを導入し,実行時間を大幅に削減する。
実験結果から,提案手法は1台のNvidia Tesla T4 GPUで毎秒40フレームを実現することができることがわかった。
論文 参考訳(メタデータ) (2023-08-26T07:46:27Z) - Real-time Virtual-Try-On from a Single Example Image through Deep
Inverse Graphics and Learned Differentiable Renderers [13.894134334543363]
本稿では,リアルタイム逆グラフィックエンコーダを構築するためのディープラーニングに基づく新しいフレームワークを提案する。
我々の模倣者は、与えられた非微分可能画像の振舞いを正確に再現することを学ぶ生成ネットワークである。
我々のフレームワークは、消費者がインスピレーション付き参照画像から未知の商品を仮想的に試すことのできる新しいアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-05-12T18:44:00Z) - Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments [66.83839051693695]
連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
論文 参考訳(メタデータ) (2021-09-16T10:37:21Z) - BEHAVIOR: Benchmark for Everyday Household Activities in Virtual,
Interactive, and Ecological Environments [70.18430114842094]
本稿では,シミュレーションにおける100のアクティビティを持つAIのベンチマークであるBEHAVIORを紹介する。
これらの活動は現実的で多様性があり、複雑であるように設計されています。
われわれは、バーチャルリアリティー(VR)における500件の人間デモを含む。
論文 参考訳(メタデータ) (2021-08-06T23:36:23Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z) - ShineOn: Illuminating Design Choices for Practical Video-based Virtual
Clothing Try-on [8.909228149756993]
仮想衣料試着のためのビデオ合成における効果的な設計選択を分離するための一連の科学的実験を構築した。
具体的には, ポーズアノテーション, セルフアテンション層配置, アクティベーション機能の影響について検討する。
swishやsineといった新しいアクティベーションの魅力にもかかわらず、geluとreluのアクティベーション機能は実験で最も効果的です。
論文 参考訳(メタデータ) (2020-12-18T20:13:09Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。