論文の概要: Aggregation and Finetuning for Clothes Landmark Detection
- arxiv url: http://arxiv.org/abs/2005.00419v1
- Date: Fri, 1 May 2020 14:47:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 00:13:48.105658
- Title: Aggregation and Finetuning for Clothes Landmark Detection
- Title(参考訳): 衣服ランドマーク検出のための集合と微細化
- Authors: Tzu-Heng Lin
- Abstract要約: 衣服のランドマーク検出は多くの用途において基本的な問題である。
衣服のランドマーク検出のための新しいトレーニングスキームとして,textitAggregation と Finetuning$ を提案する。
我々の手法は、最先端の手法よりも大きなマージンで優れている。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Landmark detection for clothes is a fundamental problem for many
applications. In this paper, a new training scheme for clothes landmark
detection: $\textit{Aggregation and Finetuning}$, is proposed. We investigate
the homogeneity among landmarks of different categories of clothes, and utilize
it to design the procedure of training. Extensive experiments show that our
method outperforms current state-of-the-art methods by a large margin. Our
method also won the 1st place in the DeepFashion2 Challenge 2020 - Clothes
Landmark Estimation Track with an AP of 0.590 on the test set, and 0.615 on the
validation set. Code will be publicly available at
https://github.com/lzhbrian/deepfashion2-kps-agg-finetune .
- Abstract(参考訳): 衣服のランドマーク検出は多くの用途において基本的な問題である。
本稿では,衣服のランドマーク検出のための新しいトレーニング手法である$\textit{Aggregation and Finetuning}$を提案する。
衣服の種類によって異なるランドマーク間の均質性を考察し,それをトレーニング手順の設計に活用する。
大規模な実験により,本手法は最先端の手法よりも高い性能を示した。
また,deepfashion2 challenge 2020 - clothing landmark estimation trackにおいて,テストセットのapが0.590,検証セットが0.615という1位を獲得した。
コードはhttps://github.com/lzhbrian/deepfashion2-kps-agg-finetuneで公開される。
関連論文リスト
- TryOn-Adapter: Efficient Fine-Grained Clothing Identity Adaptation for High-Fidelity Virtual Try-On [34.51850518458418]
仮想試着は、衣服のパターンやテクスチャの歪みを避けながら、特定の人物にシームレスにフィットするように、所定の衣服を調整することに焦点を当てる。
我々はTryOn-Adapterと呼ばれる効果的で効率的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-01T03:15:41Z) - Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - HandSight: DeCAF & Improved Fisher Vectors to Classify Clothing Color
and Texture with a Finger-Mounted Camera [57.37163491794416]
衣服のテクスチャを分類するために,DeCAFと改良されたフィッシャーベクトル画像の特徴を実証した。
この研究は、フィンガーマウントカメラと最先端の分類アルゴリズムでこの問題を解決しようとしている。
論文 参考訳(メタデータ) (2023-11-20T22:43:07Z) - From Keypoints to Object Landmarks via Self-Training Correspondence: A
novel approach to Unsupervised Landmark Discovery [37.78933209094847]
本稿ではオブジェクトランドマーク検出器の教師なし学習のための新しいパラダイムを提案する。
我々はLS3D、BBCPose、Human3.6M、PennActionなどの難解なデータセットに対して本手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-05-31T15:44:29Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Semantic-guided Pixel Sampling for Cloth-Changing Person
Re-identification [80.70419698308064]
本稿では,テクスチャ変更者のre-IDタスクに対する意味誘導型画素サンプリング手法を提案する。
まず、歩行者の上着とズボンを認識し、次に他の歩行者からピクセルをサンプリングしてランダムに変更します。
本手法は65.8%をランク1精度で達成し, 従来手法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2021-07-24T03:41:00Z) - End-to-End Semi-Supervised Object Detection with Soft Teacher [63.26266730447914]
本稿では,従来の複雑な多段階法とは対照的に,終端から終端までの半教師付き物体検出手法を提案する。
提案手法は, 種々のラベル付け比において, 従来手法よりも大きなマージンで性能を向上する。
最先端のSwin Transformerベースの物体検出器では、検出精度を+1.5 mAPで大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-06-16T17:59:30Z) - DeepMark++: Real-time Clothing Detection at the Edge [55.41644538483948]
本稿では,迅速な衣服検出とキーポイント推定を実現するための単一ステージアプローチを提案する。
提案手法は,マルチターゲットネットワークであるCenterNetをベースとして,性能向上のためのポストプロセッシング技術をいくつか導入する。
私たちの最も正確なモデルは、DeepFashion2データセットの最先端ソリューションに匹敵する結果を達成します。
論文 参考訳(メタデータ) (2020-06-01T04:36:57Z) - Detection in Crowded Scenes: One Proposal, Multiple Predictions [79.28850977968833]
混み合ったシーンにおける高過度なインスタンスを検出することを目的とした,提案手法によるオブジェクト検出手法を提案する。
このアプローチの鍵は、各提案が以前の提案ベースのフレームワークの1つではなく、関連したインスタンスのセットを予測できるようにすることです。
我々の検出器は、CrowdHumanデータセットの挑戦に対して4.9%のAPゲインを得ることができ、CityPersonsデータセットでは1.0%$textMR-2$の改善がある。
論文 参考訳(メタデータ) (2020-03-20T09:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。