論文の概要: Relatable Clothing: Detecting Visual Relationships between People and
Clothing
- arxiv url: http://arxiv.org/abs/2007.10283v1
- Date: Mon, 20 Jul 2020 17:10:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:06:39.015415
- Title: Relatable Clothing: Detecting Visual Relationships between People and
Clothing
- Title(参考訳): 関連性のある衣服:人と衣服の視覚的関係を検出する
- Authors: Thomas Truong and Svetlana Yanushkevich
- Abstract要約: 本稿では,35287対の個人服を含むRelatable Clothingデータセットのリリースについて述べる。
また,深層ニューラルネットワークを用いた「着用」と「着用」の分類を行うための新しいソフトアテンションユニットを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting visual relationships between people and clothing in an image has
been a relatively unexplored problem in the field of computer vision and
biometrics. The lack readily available public dataset for ``worn'' and
``unworn'' classification has slowed the development of solutions for this
problem. We present the release of the Relatable Clothing Dataset which
contains 35287 person-clothing pairs and segmentation masks for the development
of ``worn'' and ``unworn'' classification models. Additionally, we propose a
novel soft attention unit for performing ``worn'' and ``unworn'' classification
using deep neural networks. The proposed soft attention models have an accuracy
of upward $98.55\% \pm 0.35\%$ on the Relatable Clothing Dataset and
demonstrate high generalizable, allowing us to classify unseen articles of
clothing such as high visibility vests as ``worn'' or ``unworn''.
- Abstract(参考訳): 画像中の人物と衣服の視覚的関係を検出することは、コンピュータビジョンとバイオメトリクスの分野で比較的未解決の問題である。
`worn'' と ``unworn'' の分類のための公開データセットが不足しているため、この問題に対するソリューションの開発が遅れている。
本稿では,「ウーン」と「ウーン」の分類モデルを開発するために,35287対のパーソナライズマスクとセグメンテーションマスクを備えるRelatable Clothing Datasetのリリースについて述べる。
さらに,深層ニューラルネットワークを用いた「worn」と「unworn」の分類を行う新しいソフトアテンションユニットを提案する。
提案するソフトアテンションモデルは,可読性のある衣料品のデータセット上で9.8.55\% \pm 0.35\%$ の精度を有し,高い汎用性を示し,高視認性衣料品の「worn」や「unworn」と分類できる。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - Clothes-Changing Person Re-Identification with Feasibility-Aware Intermediary Matching [86.04494755636613]
現在の衣服変更者の再識別(re-id)アプローチは通常、衣服に関係のない特徴に基づいて検索を行う。
本稿では,ファッション関連機能を検索に利用するためのFAIMフレームワークを提案する。
提案手法は, 広く使用されている衣服変化型re-idベンチマークにおいて, 最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-04-15T06:58:09Z) - Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - StableVITON: Learning Semantic Correspondence with Latent Diffusion
Model for Virtual Try-On [35.227896906556026]
衣服画像と人物画像が与えられた場合、画像ベースの仮想試行は、衣服画像の特徴を自然に正確に反映した、カスタマイズされた画像を生成することを目的としている。
本研究では,事前学習した拡散モデルの適用性を拡張し,仮想試行作業に独立して利用できるようにすることを目的とする。
提案するゼロ・クロスアテンションブロックは, 意味的対応を学習することで衣服の細部を保存できるだけでなく, ワープ過程における事前学習モデル固有の知識を利用して高忠実度画像を生成する。
論文 参考訳(メタデータ) (2023-12-04T08:27:59Z) - Transformer-based Graph Neural Networks for Outfit Generation [22.86041284499166]
TGNNは、畳み込みグラフニューラルネットワークにおけるメッセージパッシングステップとして、多面的な自己注意を利用して、グラフ内の衣服アイテム間の関係をキャプチャする。
畳み込みグラフニューラルネットワークにおけるメッセージパッシングステップとして,多面的な自己注意を利用して,グラフ内の衣服アイテム間の関係をキャプチャするトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-17T09:18:45Z) - Dress Code: High-Resolution Multi-Category Virtual Try-On [30.166151802234555]
Dress Codeは、イメージベースの仮想試行用データセットよりも3倍大きい。
我々は,画像レベルやパッチレベルではなく,ピクセルレベルでの予測を行うセマンティック・アウェア・ディスクリミネータを活用する。
論文 参考訳(メタデータ) (2022-04-18T19:31:49Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。