論文の概要: Fashion Object Detection for Tops & Bottoms
- arxiv url: http://arxiv.org/abs/2305.18482v1
- Date: Mon, 29 May 2023 11:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 20:25:52.183479
- Title: Fashion Object Detection for Tops & Bottoms
- Title(参考訳): トップズ&ボトムズのためのファッションオブジェクト検出
- Authors: Andreas Petridis, Mirela Popa, Filipa Peleja, Dario Dotti and Alberto
de Santos
- Abstract要約: 本論文は、人とのノイズの多い画像を撮影し、下着や上着の領域を具体的に検出するパイプラインを提案する。
我々のソリューションは、フルボディ対ハーフボディなどの画像中の人間の部分を見つけることができるモデルを実装している。
その結果,Mask RCNNソリューションはロバストで,不明瞭なアパレル/ファッションデータで十分に利用でき,スケーラブルであることがわかった。
- 参考スコア(独自算出の注目度): 2.5199066832791526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fashion is one of the largest world's industries and computer vision
techniques have been becoming more popular in recent years, in particular, for
tasks such as object detection and apparel segmentation. Even with the rapid
growth in computer vision solutions, specifically for the fashion industry,
many problems are far for being resolved. Therefore, not at all times,
adjusting out-of-the-box pre-trained computer vision models will provide the
desired solution. In the present paper is proposed a pipeline that takes a
noisy image with a person and specifically detects the regions with garments
that are bottoms or tops. Our solution implements models that are capable of
finding human parts in an image e.g. full-body vs half-body, or no human is
found. Then, other models knowing that there's a human and its composition
(e.g. not always we have a full-body) finds the bounding boxes/regions of the
image that very likely correspond to a bottom or a top. For the creation of
bounding boxes/regions task, a benchmark dataset was specifically prepared. The
results show that the Mask RCNN solution is robust, and generalized enough to
be used and scalable in unseen apparel/fashion data.
- Abstract(参考訳): Fashionは世界最大の産業の1つであり、特にオブジェクト検出やアパレルセグメンテーションといったタスクにおいて、コンピュータビジョン技術が近年人気を集めている。
コンピュータビジョンソリューションの急速な成長、特にファッション業界において、多くの問題が解決されるには程遠い。
したがって、常にトレーニング済みのコンピュータビジョンモデルを調整することは、望ましい解決策となる。
本稿では,人とのノイズの多い画像を撮影し,下着や上着の領域を具体的に検出するパイプラインを提案する。
我々のソリューションは、フルボディ対ハーフボディなどの画像中の人間の部分を見つけることができるモデルを実装している。
すると、人間が存在することを知る他のモデル(例えば、常にフルボディを持っているとは限らない)は、画像のバウンディングボックスや領域が、ボトムやトップと非常に一致する可能性が高い。
境界ボックス/リージョンタスクを作成するために、ベンチマークデータセットが特別に準備された。
その結果,Mask RCNNソリューションはロバストで,不明瞭なアパレル/ファッションデータで使用でき,スケーラブルであることがわかった。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - The Change You Want to See (Now in 3D) [65.61789642291636]
本稿の目的は、同じ3Dシーンの2つの「野生」画像の間で何が変わったかを検出することである。
我々は,全合成データに基づいて学習し,クラスに依存しない変化検出モデルに貢献する。
我々は,人間に注釈を付けた実世界のイメージペアによる評価データセットを新たにリリースした。
論文 参考訳(メタデータ) (2023-08-21T01:59:45Z) - The Impact of Background Removal on Performance of Neural Networks for Fashion Image Classification and Segmentation [3.408972648415128]
ファッション画像から背景を取り除き、データ品質を高め、モデル性能を向上させる。
背景除去は、過度に適合しない単純で浅いネットワークにおいて、ファッションデータに対して効果的に機能する。
モデルのスクラッチからトレーニングする場合、FashionStyle14データセットの分類において、最大5%の精度でモデル精度を向上させることができる。
論文 参考訳(メタデータ) (2023-08-18T18:18:47Z) - Diverse, Difficult, and Odd Instances (D2O): A New Test Set for Object
Classification [47.64219291655723]
既存のテストセットと十分に異なるD2Oと呼ばれる新しいテストセットを導入します。
私たちのデータセットには、36のカテゴリにまたがる8,060のイメージが含まれており、そのうち29がImageNetに表示されています。
私たちのデータセットで最高のTop-1精度は約60%で、ImageNetで91%のTop-1精度よりもはるかに低いです。
論文 参考訳(メタデータ) (2023-01-29T19:58:32Z) - Dress Code: High-Resolution Multi-Category Virtual Try-On [30.166151802234555]
Dress Codeは、イメージベースの仮想試行用データセットよりも3倍大きい。
我々は,画像レベルやパッチレベルではなく,ピクセルレベルでの予測を行うセマンティック・アウェア・ディスクリミネータを活用する。
論文 参考訳(メタデータ) (2022-04-18T19:31:49Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z) - A Strong Baseline for Fashion Retrieval with Person Re-Identification
Models [0.0]
ファッション検索は、画像に含まれるファッションアイテムの正確なマッチングを見つけるのに難しいタスクである。
ファッション検索のためのシンプルなベースラインモデルを導入する。
Street2ShopとDeepFashionのデータセットで詳細な実験を行い、その結果を検証する。
論文 参考訳(メタデータ) (2020-03-09T12:50:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。