論文の概要: FashionFail: Addressing Failure Cases in Fashion Object Detection and Segmentation
- arxiv url: http://arxiv.org/abs/2404.08582v1
- Date: Fri, 12 Apr 2024 16:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 14:27:45.328018
- Title: FashionFail: Addressing Failure Cases in Fashion Object Detection and Segmentation
- Title(参考訳): FashionFail: ファッションオブジェクトの検出とセグメンテーションにおける障害事例への対応
- Authors: Riza Velioglu, Robin Chan, Barbara Hammer,
- Abstract要約: FashionFailは、オブジェクトの検出とセグメンテーションのためのEコマースイメージを備えた新しいデータセットである。
分析の結果,Attribute-Mask R-CNN や Fashionformer など,主要なモデルの欠点が明らかになった。
本稿では,一般的な障害を緩和し,モデルロバスト性を改善するために,単純データ拡張を用いたベースラインアプローチを提案する。
- 参考スコア(独自算出の注目度): 7.483981721542115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the realm of fashion object detection and segmentation for online shopping images, existing state-of-the-art fashion parsing models encounter limitations, particularly when exposed to non-model-worn apparel and close-up shots. To address these failures, we introduce FashionFail; a new fashion dataset with e-commerce images for object detection and segmentation. The dataset is efficiently curated using our novel annotation tool that leverages recent foundation models. The primary objective of FashionFail is to serve as a test bed for evaluating the robustness of models. Our analysis reveals the shortcomings of leading models, such as Attribute-Mask R-CNN and Fashionformer. Additionally, we propose a baseline approach using naive data augmentation to mitigate common failure cases and improve model robustness. Through this work, we aim to inspire and support further research in fashion item detection and segmentation for industrial applications. The dataset, annotation tool, code, and models are available at \url{https://rizavelioglu.github.io/fashionfail/}.
- Abstract(参考訳): オンラインショッピング画像のファッションオブジェクトの検出とセグメンテーションの領域では、既存の最先端のファッションパーシングモデルは、特に非モデルウーンのアパレルやクローズアップショットに晒された場合、制限に直面する。
これらの障害に対処するために、オブジェクトの検出とセグメンテーションのためのEコマースイメージを備えた新しいファッションデータセットであるFashionFailを紹介します。
データセットは、最近の基礎モデルを活用する新しいアノテーションツールを使用して、効率的にキュレートされます。
FashionFailの主な目的は、モデルの堅牢性を評価するテストベッドとして機能することである。
分析の結果,Attribute-Mask R-CNN や Fashionformer など,主要なモデルの欠点が明らかになった。
さらに,一般的な障害を緩和し,モデルロバスト性を改善するために,単純データ拡張を用いたベースラインアプローチを提案する。
本研究は,産業用途におけるファッションアイテムの検出とセグメンテーションに関するさらなる研究を刺激し,支援することを目的としている。
データセット、アノテーションツール、コード、モデルは、 \url{https://rizavelioglu.github.io/fashionfail/}で入手できる。
関連論文リスト
- Fashion Image-to-Image Translation for Complementary Item Retrieval [13.88174783842901]
本稿では,ジェネレーティブ・コンパティビリティ・モデル(GeCo)を提案する。
3つのデータセットの評価によると、GeCoは最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-08-19T09:50:20Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - Open World Object Detection in the Era of Foundation Models [53.683963161370585]
5つの実世界のアプリケーション駆動データセットを含む新しいベンチマークを導入する。
本稿では,オープンワールドのための新しいオブジェクト検出モデル(FOMO)を提案する。
論文 参考訳(メタデータ) (2023-12-10T03:56:06Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Data Efficient Training with Imbalanced Label Sample Distribution for
Fashion Detection [5.912870746288055]
本稿では,長期データ分布を持つ多ラベル分類のためのディープニューラルネットワーク(DNN)の性能向上を目的とした,最先端の重み付き目的関数を提案する。
本実験では,ファッションアパレルのイメージに基づく属性分類を行い,新しい重み付け法に好適な性能を示した。
論文 参考訳(メタデータ) (2023-05-07T21:25:09Z) - ImageNet-E: Benchmarking Neural Network Robustness via Attribute Editing [45.14977000707886]
ImageNetにおける高い精度は、通常、異なる汚職に対してより堅牢性をもたらす。
我々は、背景、大きさ、位置、方向の制御によるオブジェクト編集のためのツールキットを作成する。
我々は、畳み込みニューラルネットワークと視覚変換器の両方を含む現在のディープラーニングモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-03-30T02:02:32Z) - Fashionformer: A simple, Effective and Unified Baseline for Human
Fashion Segmentation and Recognition [80.74495836502919]
本研究では,共同ファッションセグメンテーションと属性認識に着目した。
本稿では,セグメンテーションのためのオブジェクトクエリと属性予測のための属性クエリを紹介する。
属性ストリームのために,よりきめ細かい特徴を探索する新しいマルチレイヤレンダリングモジュールを設計する。
論文 参考訳(メタデータ) (2022-04-10T11:11:10Z) - Using Artificial Intelligence to Analyze Fashion Trends [0.76146285961466]
本研究では,人工知能(A.I.)アルゴリズムを用いたデータ駆動量抽象手法を提案する。
A.I.モデルは、さまざまなシナリオ下で大規模なデータセットのファッションイメージに基づいてトレーニングされた。
A.I.モデルは検出された領域の豊富な記述を生成でき、画像中の衣服を正確に結合できることがわかった。
論文 参考訳(メタデータ) (2020-05-03T04:46:12Z) - Learning Diverse Fashion Collocation by Neural Graph Filtering [78.9188246136867]
本稿では,グラフニューラルネットワークを用いて,フレキシブルなファッションアイテムセットをモデル化する新しいファッションコロケーションフレームワークであるNeural Graph Filteringを提案する。
エッジベクトルに対称演算を適用することにより、このフレームワークは様々な入力/出力を許容し、それらの順序に不変である。
提案手法を,Polyvoreデータセット,Polyvore-Dデータセット,Amazon Fashionデータセットの3つの一般的なベンチマークで評価した。
論文 参考訳(メタデータ) (2020-03-11T16:17:08Z) - A Strong Baseline for Fashion Retrieval with Person Re-Identification
Models [0.0]
ファッション検索は、画像に含まれるファッションアイテムの正確なマッチングを見つけるのに難しいタスクである。
ファッション検索のためのシンプルなベースラインモデルを導入する。
Street2ShopとDeepFashionのデータセットで詳細な実験を行い、その結果を検証する。
論文 参考訳(メタデータ) (2020-03-09T12:50:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。