論文の概要: A Strong Baseline for Fashion Retrieval with Person Re-Identification
Models
- arxiv url: http://arxiv.org/abs/2003.04094v1
- Date: Mon, 9 Mar 2020 12:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 09:29:09.269454
- Title: A Strong Baseline for Fashion Retrieval with Person Re-Identification
Models
- Title(参考訳): 人物再同定モデルを用いたファッション検索のための強固なベースライン
- Authors: Mikolaj Wieczorek (1), Andrzej Michalowski (1), Anna Wroblewska (1 and
2), Jacek Dabrowski (1) ((1) Synerise, (2) Warsaw University of Technology)
- Abstract要約: ファッション検索は、画像に含まれるファッションアイテムの正確なマッチングを見つけるのに難しいタスクである。
ファッション検索のためのシンプルなベースラインモデルを導入する。
Street2ShopとDeepFashionのデータセットで詳細な実験を行い、その結果を検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fashion retrieval is the challenging task of finding an exact match for
fashion items contained within an image. Difficulties arise from the
fine-grained nature of clothing items, very large intra-class and inter-class
variance. Additionally, query and source images for the task usually come from
different domains - street photos and catalogue photos respectively. Due to
these differences, a significant gap in quality, lighting, contrast, background
clutter and item presentation exists between domains. As a result, fashion
retrieval is an active field of research both in academia and the industry.
Inspired by recent advancements in Person Re-Identification research, we
adapt leading ReID models to be used in fashion retrieval tasks. We introduce a
simple baseline model for fashion retrieval, significantly outperforming
previous state-of-the-art results despite a much simpler architecture. We
conduct in-depth experiments on Street2Shop and DeepFashion datasets and
validate our results. Finally, we propose a cross-domain (cross-dataset)
evaluation method to test the robustness of fashion retrieval models.
- Abstract(参考訳): ファッション検索は、画像に含まれるファッションアイテムの正確なマッチングを見つけるのに難しいタスクである。
困難は衣料品の細かな性質、非常に大きなクラス内およびクラス間ばらつきから生じる。
さらに、タスクのクエリとソースイメージは、それぞれ異なるドメイン – ストリート写真とカタログ写真 – から生まれることが多い。
これらの違いにより、領域間で品質、照明、コントラスト、背景の散らばり、アイテムの提示において大きなギャップが存在する。
結果として、ファッション検索は学術と産業の両方の研究の活発な分野である。
近年のPerson Re-Identification研究の進展に触発されて,ファッション検索に使用されるリード型ReIDモデルに適応する。
ファッション検索のためのシンプルなベースラインモデルを導入し、よりシンプルなアーキテクチャにもかかわらず、これまでの最先端の結果を著しく上回っている。
Street2ShopとDeepFashionのデータセットで詳細な実験を行い、その結果を検証する。
最後に,ファッション検索モデルのロバスト性をテストするためのクロスドメイン(クロスデータセット)評価手法を提案する。
関連論文リスト
- Fashion Image-to-Image Translation for Complementary Item Retrieval [13.88174783842901]
本稿では,ジェネレーティブ・コンパティビリティ・モデル(GeCo)を提案する。
3つのデータセットの評価によると、GeCoは最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-08-19T09:50:20Z) - FashionFail: Addressing Failure Cases in Fashion Object Detection and Segmentation [7.483981721542115]
FashionFailは、オブジェクトの検出とセグメンテーションのためのEコマースイメージを備えた新しいデータセットである。
分析の結果,Attribute-Mask R-CNN や Fashionformer など,主要なモデルの欠点が明らかになった。
本稿では,一般的な障害を緩和し,モデルロバスト性を改善するために,単純データ拡張を用いたベースラインアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-12T16:28:30Z) - The Impact of Background Removal on Performance of Neural Networks for Fashion Image Classification and Segmentation [3.408972648415128]
ファッション画像から背景を取り除き、データ品質を高め、モデル性能を向上させる。
背景除去は、過度に適合しない単純で浅いネットワークにおいて、ファッションデータに対して効果的に機能する。
モデルのスクラッチからトレーニングする場合、FashionStyle14データセットの分類において、最大5%の精度でモデル精度を向上させることができる。
論文 参考訳(メタデータ) (2023-08-18T18:18:47Z) - LRVS-Fashion: Extending Visual Search with Referring Instructions [13.590668564555195]
提案するReferred Visual Search(RVS)は,ユーザが希望する類似性をより正確に定義できるタスクである。
ファッションカタログから842kの画像が抽出された272kのファッション製品からなる、新しい大規模パブリックデータセットLRVS-Fashionをリリースする。
論文 参考訳(メタデータ) (2023-06-05T14:45:38Z) - FaD-VLP: Fashion Vision-and-Language Pre-training towards Unified
Retrieval and Captioning [66.38951790650887]
ファッション分野におけるマルチモーダルタスクは、eコマースにとって大きな可能性を秘めている。
本稿では,ファッションとテクストのペアから構築した弱教師付き三つ組に基づく,ファッション特有の事前学習フレームワークを提案する。
3重項に基づくタスクは、標準的なマルチモーダル事前学習タスクに有効な追加であることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:01:19Z) - Progressive Learning for Image Retrieval with Hybrid-Modality Queries [48.79599320198615]
ハイブリッドモダリティクエリによる画像検索(CTI-IR)
我々は、CTI-IRタスクを3段階の学習問題に分解し、ハイブリッドモダリティクエリを用いて画像検索のための複雑な知識を段階的に学習する。
提案モデルは,Fashion-IQおよびShoesベンチマークデータセットにおいて,Recall@K平均の最先端手法を24.9%,9.5%向上させる。
論文 参考訳(メタデータ) (2022-04-24T08:10:06Z) - Fashionformer: A simple, Effective and Unified Baseline for Human
Fashion Segmentation and Recognition [80.74495836502919]
本研究では,共同ファッションセグメンテーションと属性認識に着目した。
本稿では,セグメンテーションのためのオブジェクトクエリと属性予測のための属性クエリを紹介する。
属性ストリームのために,よりきめ細かい特徴を探索する新しいマルチレイヤレンダリングモジュールを設計する。
論文 参考訳(メタデータ) (2022-04-10T11:11:10Z) - Where Does the Performance Improvement Come From? - A Reproducibility
Concern about Image-Text Retrieval [85.03655458677295]
画像テキスト検索は、情報検索分野において、徐々に主要な研究方向になりつつある。
まず、画像テキスト検索タスクに焦点が当てられている理由と関連性について検討する。
本研究では,事前学習と非事前学習による検索モデルの再現の諸側面を解析する。
論文 参考訳(メタデータ) (2022-03-08T05:01:43Z) - FashionBERT: Text and Image Matching with Adaptive Loss for Cross-modal
Retrieval [31.822218310945036]
FashionBERTはテキストや画像のハイレベルな表現を学習する。
FashionBERTは、ベースラインや最先端のアプローチよりもパフォーマンスが大幅に向上している。
論文 参考訳(メタデータ) (2020-05-20T00:41:00Z) - Fashionpedia: Ontology, Segmentation, and an Attribute Localization
Dataset [62.77342894987297]
本稿では,インスタンス分割と局所化属性認識を共同で行う新しい属性・マスクRCNNモデルを提案する。
また、Fashionpediaで事前学習したインスタンスセグメンテーションモデルにより、ImageNetの事前学習よりも、他のファッションデータセットの転送学習性能が向上することを示す。
論文 参考訳(メタデータ) (2020-04-26T02:38:26Z) - Learning Diverse Fashion Collocation by Neural Graph Filtering [78.9188246136867]
本稿では,グラフニューラルネットワークを用いて,フレキシブルなファッションアイテムセットをモデル化する新しいファッションコロケーションフレームワークであるNeural Graph Filteringを提案する。
エッジベクトルに対称演算を適用することにより、このフレームワークは様々な入力/出力を許容し、それらの順序に不変である。
提案手法を,Polyvoreデータセット,Polyvore-Dデータセット,Amazon Fashionデータセットの3つの一般的なベンチマークで評価した。
論文 参考訳(メタデータ) (2020-03-11T16:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。