論文の概要: VTONQA: A Multi-Dimensional Quality Assessment Dataset for Virtual Try-on
- arxiv url: http://arxiv.org/abs/2601.02945v1
- Date: Tue, 06 Jan 2026 11:42:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.911668
- Title: VTONQA: A Multi-Dimensional Quality Assessment Dataset for Virtual Try-on
- Title(参考訳): VTONQA:仮想試行のための多次元品質評価データセット
- Authors: Xinyi Wei, Sijing Wu, Zitong Xu, Yunhao Li, Huiyu Duan, Xiongkuo Min, Guangtao Zhai,
- Abstract要約: VTONQAはVTON用に設計された最初の多次元品質評価データセットである。
11の代表的なVTONモデルによって生成される8,132の画像と、3つの評価次元にわたる24,396の平均世論スコア(MOS)を含んでいる。
VTONモデルとさまざまな画像品質評価(IQA)メトリクスのベンチマークを行い、既存の手法の限界を明らかにした。
- 参考スコア(独自算出の注目度): 83.39966045949338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of e-commerce and digital fashion, image-based virtual try-on (VTON) has attracted increasing attention. However, existing VTON models often suffer from artifacts such as garment distortion and body inconsistency, highlighting the need for reliable quality evaluation of VTON-generated images. To this end, we construct VTONQA, the first multi-dimensional quality assessment dataset specifically designed for VTON, which contains 8,132 images generated by 11 representative VTON models, along with 24,396 mean opinion scores (MOSs) across three evaluation dimensions (i.e., clothing fit, body compatibility, and overall quality). Based on VTONQA, we benchmark both VTON models and a diverse set of image quality assessment (IQA) metrics, revealing the limitations of existing methods and highlighting the value of the proposed dataset. We believe that the VTONQA dataset and corresponding benchmarks will provide a solid foundation for perceptually aligned evaluation, benefiting both the development of quality assessment methods and the advancement of VTON models.
- Abstract(参考訳): 電子商取引とデジタルファッションの急速な発展に伴い、画像ベースの仮想試行(VTON)が注目されている。
しかしながら、既存のVTONモデルは、しばしば衣服の歪みや身体の不整合などのアーティファクトに悩まされ、VTON生成画像の信頼性の高い品質評価の必要性を強調している。
この目的のために,11の代表的なVTONモデルが生成する8,132個の画像と,3つの評価次元(衣料品の適合,身体の適合性,全体的な品質)にわたる24,396個の平均評価スコア(MOS)を含む,VTON専用に設計された最初の多次元品質評価データセットであるVTONQAを構築した。
VTONQAに基づいて、VTONモデルとさまざまな画像品質評価(IQA)メトリクスをベンチマークし、既存の手法の限界を明らかにし、提案したデータセットの価値を強調する。
VTONQAデータセットとそれに対応するベンチマークは、品質評価手法の開発とVTONモデルの進歩の両面から、知覚的整合性評価のための確かな基盤を提供すると信じている。
関連論文リスト
- Rethinking Garment Conditioning in Diffusion-based Virtual Try-On [7.386027762996787]
高速な単一UNetモデルであるRe-CatVTONを開発した。
提案されたRe-CatVTONは前機種に比べて性能が大幅に向上した。
その結果,FID,KID,LPIPSのスコアは改善し,SSIMはわずかに低下した。
論文 参考訳(メタデータ) (2025-11-24T05:19:44Z) - AvatarVTON: 4D Virtual Try-On for Animatable Avatars [67.13031660684457]
AvatarVTONは、単一のショップ内衣料品画像から現実的な試着結果を生成する。
シングルビューの監視下での動的衣料相互作用をサポートする。
AR/VR、ゲーム、デジタル・ヒューマン・アプリケーションに適している。
論文 参考訳(メタデータ) (2025-10-06T14:06:34Z) - VTBench: Evaluating Visual Tokenizers for Autoregressive Image Generation [11.529598741483076]
視覚トークン化器(VT)は連続した画素入力を離散トークンシーケンスにマッピングする。
現在の離散VTは連続的変分オートエンコーダ(VAE)に大きく遅れており、画像再構成の劣化と細部やテキストの保存不良につながる。
既存のベンチマークでは、VTパフォーマンスを分離することなく、エンドツーエンドの世代品質に重点を置いている。
VTBenchは、画像再構成、詳細保存、テキスト保存の3つのコアタスクに対して、VTを体系的に評価する包括的なベンチマークである。
論文 参考訳(メタデータ) (2025-05-19T17:59:01Z) - VTON 360: High-Fidelity Virtual Try-On from Any Viewing Direction [103.0918705283309]
VTON(Virtual Try-On)は、電子商取引とファッションデザインにおける革新的技術であり、個人における衣服のリアルなデジタル視覚化を可能にする。
VTON 360は、任意のビューレンダリングをサポートする高忠実度VTONを実現するためのオープンな課題に対処する新しい3次元VTON法である。
論文 参考訳(メタデータ) (2025-03-15T15:08:48Z) - TryOffDiff: Virtual-Try-Off via High-Fidelity Garment Reconstruction using Diffusion Models [8.158200403139196]
VTOFF(Virtual Try-Off)は,着用者の単一写真から標準化された衣服画像を生成する新しいタスクである。
TryOffDiffは、SigLIPベースのビジュアルコンディショニングで安定拡散を適用して、高忠実度再構築を実現する。
本研究は, 電子商取引製品イメージの向上, 生成モデル評価の進展, 高忠実度再構築に向けた今後の研究を導くことを目的としたものである。
論文 参考訳(メタデータ) (2024-11-27T13:53:09Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Visual Mechanisms Inspired Efficient Transformers for Image and Video
Quality Assessment [5.584060970507507]
人間の視覚系における知覚機構は、品質知覚の生成において重要な役割を担っている。
本稿では,効率的なウィンドウ変換アーキテクチャを用いた非参照視覚品質評価のための一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-28T07:55:11Z) - FUNQUE: Fusion of Unified Quality Evaluators [42.41484412777326]
核融合による品質評価は、高性能な品質モデルを開発するための強力な方法として登場した。
統一品質評価器を融合した品質モデルであるFUNQUEを提案する。
論文 参考訳(メタデータ) (2022-02-23T00:21:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。