論文の概要: Fine-Grained Fashion Similarity Prediction by Attribute-Specific
Embedding Learning
- arxiv url: http://arxiv.org/abs/2104.02429v1
- Date: Tue, 6 Apr 2021 11:26:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 13:54:04.740863
- Title: Fine-Grained Fashion Similarity Prediction by Attribute-Specific
Embedding Learning
- Title(参考訳): 属性特異的埋め込み学習によるきめ細かいファッション類似度予測
- Authors: Jianfeng Dong, Zhe Ma, Xiaofeng Mao, Xun Yang, Yuan He, Richang Hong,
Shouling Ji
- Abstract要約: ASEN(Attribute-Specific Embedding Network)を提案し、複数の属性固有の埋め込みを共同学習する。
提案したASENはグローバルブランチとローカルブランチで構成されている。
ファッション関連データセットであるFashionAI、DARN、DeepFashionの3つの実験は、ファッション類似性予測におけるASENの有効性を示している。
- 参考スコア(独自算出の注目度): 71.74073012364326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper strives to predict fine-grained fashion similarity. In this
similarity paradigm, one should pay more attention to the similarity in terms
of a specific design/attribute between fashion items. For example, whether the
collar designs of the two clothes are similar. It has potential value in many
fashion related applications, such as fashion copyright protection. To this
end, we propose an Attribute-Specific Embedding Network (ASEN) to jointly learn
multiple attribute-specific embeddings, thus measure the fine-grained
similarity in the corresponding space. The proposed ASEN is comprised of a
global branch and a local branch. The global branch takes the whole image as
input to extract features from a global perspective, while the local branch
takes as input the zoomed-in region-of-interest (RoI) w.r.t. the specified
attribute thus able to extract more fine-grained features. As the global branch
and the local branch extract the features from different perspectives, they are
complementary to each other. Additionally, in each branch, two attention
modules, i.e., Attribute-aware Spatial Attention and Attribute-aware Channel
Attention, are integrated to make ASEN be able to locate the related regions
and capture the essential patterns under the guidance of the specified
attribute, thus make the learned attribute-specific embeddings better reflect
the fine-grained similarity. Extensive experiments on three fashion-related
datasets, i.e., FashionAI, DARN, and DeepFashion, show the effectiveness of
ASEN for fine-grained fashion similarity prediction and its potential for
fashion reranking. Code and data are available at
https://github.com/maryeon/asenpp .
- Abstract(参考訳): 本稿では, ファッションの微粒化を推し進める。
この類似性パラダイムでは、ファッションアイテム間の特定のデザイン/属性の観点から、類似性にもっと注意を払うべきです。
例えば、2つの服の首輪のデザインが似ているかどうか。
ファッション著作権保護など、ファッション関連の多くのアプリケーションで潜在的に有用である。
そこで本稿では,複数の属性固有の埋め込みを共同で学習する Attribute-Specific Embedding Network (ASEN) を提案する。
提案したASENはグローバルブランチとローカルブランチで構成されている。
グローバルブランチは全画像を入力として、グローバルパースペクティブから特徴を抽出し、ローカルブランチはズームインされた関心領域(RoI)w.r.tを入力として取る。
したがって、指定された属性はよりきめ細かい特徴を抽出することができる。
グローバルブランチとローカルブランチは異なる視点から特徴を抽出するので、それらは相互に相補的である。
さらに、各ブランチにおいて、Attribute対応空間注意とAttribute対応チャンネル注意という2つの注意モジュールが統合され、ASENが関連する領域を特定し、特定の属性のガイダンスの下で本質的なパターンをキャプチャできるようにすることにより、学習された属性固有の埋め込みがよりきめ細かな類似性を反映する。
ファッション関連データセットであるFashionAI、DARN、DeepFashionの広範囲にわたる実験は、ファッション類似性予測におけるASENの有効性とファッション再評価の可能性を示している。
コードとデータはhttps://github.com/maryeon/asenppで入手できる。
関連論文リスト
- Attribute-Aware Implicit Modality Alignment for Text Attribute Person Search [19.610244285078483]
本稿では,テキスト属性と画像間の局所的な表現の対応を学習するためのAIMA(Attribute-Aware Implicit Modality Alignment)フレームワークを提案する。
提案手法は,現在の最先端手法をはるかに上回ることを示す。
論文 参考訳(メタデータ) (2024-06-06T03:34:42Z) - Dual Relation Mining Network for Zero-Shot Learning [48.89161627050706]
本稿では,効果的な視覚・意味的相互作用を実現し,知識伝達のための属性間の意味的関係を学習するためのDual Relation Mining Network(DRMN)を提案する。
具体的には,多層的特徴融合により視覚情報を強化する視覚・意味的関係マイニングのためのデュアルアテンションブロック(DAB)を提案する。
セマンティック・インタラクション・トランスフォーマ(SIT)を用いて画像間の属性表現の一般化を促進する。
論文 参考訳(メタデータ) (2024-05-06T16:31:19Z) - Dual Feature Augmentation Network for Generalized Zero-shot Learning [14.410978100610489]
ゼロショット学習 (ZSL) は,見知らぬクラスから知識を伝達することによって,サンプルを訓練せずに新しいクラスを推論することを目的としている。
ZSLの既存の埋め込みベースのアプローチは、画像上の属性を見つけるために注意機構を用いるのが一般的である。
本稿では,2つの機能拡張モジュールからなる新しいDual Feature Augmentation Network (DFAN)を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:37:52Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - From Region to Patch: Attribute-Aware Foreground-Background Contrastive
Learning for Fine-Grained Fashion Retrieval [27.931767073714635]
属性特化ファッション検索(ASFR)は難易度の高い情報検索課題である。
本研究では,細粒度属性関連視覚特徴を抽出するRegional-to-Patch Framework(RPF)を提案する。
筆者らのフレームワークは,領域の局所化と特徴抽出の適切なバランスをとる。
論文 参考訳(メタデータ) (2023-05-17T14:49:20Z) - Effectively Leveraging Attributes for Visual Similarity [52.2646549020835]
Pairwise Attribute-Informed similarity Network (PAN) を提案する。このネットワークは、類似性学習を2つの画像の共同表現から類似性条件と関連性スコアをキャプチャする。
PANは、Polyvore Outfits上の服品間の互換性予測を4-9%改善し、Caltech-UCSD Birds (CUB)を使用した画像の少数分類で5%向上し、In-Shop Clothes RetrievalでRecall@1に1%アップした。
論文 参考訳(メタデータ) (2021-05-04T18:28:35Z) - Where to Look and How to Describe: Fashion Image Retrieval with an
Attentional Heterogeneous Bilinear Network [50.19558726384559]
画像に基づくファッション商品検索のための生物学的にインスパイアされたフレームワークを提案する。
提案フレームワークは,3つの画像に基づくファッション製品検索ベンチマークにおいて,満足な性能を実現する。
論文 参考訳(メタデータ) (2020-10-26T06:01:09Z) - Fine-Grained Fashion Similarity Learning by Attribute-Specific Embedding
Network [59.479783847922135]
本稿では,複数の属性固有の埋め込みをエンドツーエンドで共同学習するAttribute-Specific Embedding Network (ASEN)を提案する。
ASENは関連する領域を特定し、指定された属性のガイダンスの下で必須のパターンをキャプチャすることができる。
4つのファッション関連データセットの実験は、ファッション類似性学習におけるASENの有効性を示している。
論文 参考訳(メタデータ) (2020-02-07T14:42:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。