論文の概要: Fine-Grained Fashion Similarity Prediction by Attribute-Specific
Embedding Learning
- arxiv url: http://arxiv.org/abs/2104.02429v1
- Date: Tue, 6 Apr 2021 11:26:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 13:54:04.740863
- Title: Fine-Grained Fashion Similarity Prediction by Attribute-Specific
Embedding Learning
- Title(参考訳): 属性特異的埋め込み学習によるきめ細かいファッション類似度予測
- Authors: Jianfeng Dong, Zhe Ma, Xiaofeng Mao, Xun Yang, Yuan He, Richang Hong,
Shouling Ji
- Abstract要約: ASEN(Attribute-Specific Embedding Network)を提案し、複数の属性固有の埋め込みを共同学習する。
提案したASENはグローバルブランチとローカルブランチで構成されている。
ファッション関連データセットであるFashionAI、DARN、DeepFashionの3つの実験は、ファッション類似性予測におけるASENの有効性を示している。
- 参考スコア(独自算出の注目度): 71.74073012364326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper strives to predict fine-grained fashion similarity. In this
similarity paradigm, one should pay more attention to the similarity in terms
of a specific design/attribute between fashion items. For example, whether the
collar designs of the two clothes are similar. It has potential value in many
fashion related applications, such as fashion copyright protection. To this
end, we propose an Attribute-Specific Embedding Network (ASEN) to jointly learn
multiple attribute-specific embeddings, thus measure the fine-grained
similarity in the corresponding space. The proposed ASEN is comprised of a
global branch and a local branch. The global branch takes the whole image as
input to extract features from a global perspective, while the local branch
takes as input the zoomed-in region-of-interest (RoI) w.r.t. the specified
attribute thus able to extract more fine-grained features. As the global branch
and the local branch extract the features from different perspectives, they are
complementary to each other. Additionally, in each branch, two attention
modules, i.e., Attribute-aware Spatial Attention and Attribute-aware Channel
Attention, are integrated to make ASEN be able to locate the related regions
and capture the essential patterns under the guidance of the specified
attribute, thus make the learned attribute-specific embeddings better reflect
the fine-grained similarity. Extensive experiments on three fashion-related
datasets, i.e., FashionAI, DARN, and DeepFashion, show the effectiveness of
ASEN for fine-grained fashion similarity prediction and its potential for
fashion reranking. Code and data are available at
https://github.com/maryeon/asenpp .
- Abstract(参考訳): 本稿では, ファッションの微粒化を推し進める。
この類似性パラダイムでは、ファッションアイテム間の特定のデザイン/属性の観点から、類似性にもっと注意を払うべきです。
例えば、2つの服の首輪のデザインが似ているかどうか。
ファッション著作権保護など、ファッション関連の多くのアプリケーションで潜在的に有用である。
そこで本稿では,複数の属性固有の埋め込みを共同で学習する Attribute-Specific Embedding Network (ASEN) を提案する。
提案したASENはグローバルブランチとローカルブランチで構成されている。
グローバルブランチは全画像を入力として、グローバルパースペクティブから特徴を抽出し、ローカルブランチはズームインされた関心領域(RoI)w.r.tを入力として取る。
したがって、指定された属性はよりきめ細かい特徴を抽出することができる。
グローバルブランチとローカルブランチは異なる視点から特徴を抽出するので、それらは相互に相補的である。
さらに、各ブランチにおいて、Attribute対応空間注意とAttribute対応チャンネル注意という2つの注意モジュールが統合され、ASENが関連する領域を特定し、特定の属性のガイダンスの下で本質的なパターンをキャプチャできるようにすることにより、学習された属性固有の埋め込みがよりきめ細かな類似性を反映する。
ファッション関連データセットであるFashionAI、DARN、DeepFashionの広範囲にわたる実験は、ファッション類似性予測におけるASENの有効性とファッション再評価の可能性を示している。
コードとデータはhttps://github.com/maryeon/asenppで入手できる。
関連論文リスト
- Multi-Intent Attribute-Aware Text Matching in Searching [21.92265431319774]
本稿では,属性認識エンコーダ,マルチインテントモデリング,インテント認識マッチングという3つの主要コンポーネントから構成されるマルチインテント属性認識マッチングモデルを提案する。
MIMでは、属性の重要性に関して、テキストと属性を重み付けし、スケールされた注意機構を通じて処理する。
意図認識マッチングにおいて、意図は自己監督型マスキングタスクによって評価され、次に組み込まれて最終的なマッチング結果が出力される。
論文 参考訳(メタデータ) (2024-02-12T16:54:22Z) - Dual Feature Augmentation Network for Generalized Zero-shot Learning [14.410978100610489]
ゼロショット学習 (ZSL) は,見知らぬクラスから知識を伝達することによって,サンプルを訓練せずに新しいクラスを推論することを目的としている。
ZSLの既存の埋め込みベースのアプローチは、画像上の属性を見つけるために注意機構を用いるのが一般的である。
本稿では,2つの機能拡張モジュールからなる新しいDual Feature Augmentation Network (DFAN)を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:37:52Z) - Exploring Fine-Grained Representation and Recomposition for
Cloth-Changing Person Re-Identification [85.41212650837704]
補助情報のない2つの制限に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - From Region to Patch: Attribute-Aware Foreground-Background Contrastive
Learning for Fine-Grained Fashion Retrieval [27.931767073714635]
属性特化ファッション検索(ASFR)は難易度の高い情報検索課題である。
本研究では,細粒度属性関連視覚特徴を抽出するRegional-to-Patch Framework(RPF)を提案する。
筆者らのフレームワークは,領域の局所化と特徴抽出の適切なバランスをとる。
論文 参考訳(メタデータ) (2023-05-17T14:49:20Z) - FashionSearchNet-v2: Learning Attribute Representations with
Localization for Image Retrieval with Attribute Manipulation [22.691709684780292]
提案されているFashionSearchNet-v2アーキテクチャは、その弱教師付きローカライゼーションモジュールを利用して属性固有の表現を学習することができる。
ネットワークは属性分類と三重項ランキング損失の組み合わせで共同で訓練され、局所表現を推定する。
FashionSearchNet-v2は、属性数の観点からリッチないくつかのデータセットで実施された実験により、他の最先端属性操作技術よりも優れていた。
論文 参考訳(メタデータ) (2021-11-28T13:50:20Z) - Effectively Leveraging Attributes for Visual Similarity [52.2646549020835]
Pairwise Attribute-Informed similarity Network (PAN) を提案する。このネットワークは、類似性学習を2つの画像の共同表現から類似性条件と関連性スコアをキャプチャする。
PANは、Polyvore Outfits上の服品間の互換性予測を4-9%改善し、Caltech-UCSD Birds (CUB)を使用した画像の少数分類で5%向上し、In-Shop Clothes RetrievalでRecall@1に1%アップした。
論文 参考訳(メタデータ) (2021-05-04T18:28:35Z) - Where to Look and How to Describe: Fashion Image Retrieval with an
Attentional Heterogeneous Bilinear Network [50.19558726384559]
画像に基づくファッション商品検索のための生物学的にインスパイアされたフレームワークを提案する。
提案フレームワークは,3つの画像に基づくファッション製品検索ベンチマークにおいて,満足な性能を実現する。
論文 参考訳(メタデータ) (2020-10-26T06:01:09Z) - Fashionpedia: Ontology, Segmentation, and an Attribute Localization
Dataset [62.77342894987297]
本稿では,インスタンス分割と局所化属性認識を共同で行う新しい属性・マスクRCNNモデルを提案する。
また、Fashionpediaで事前学習したインスタンスセグメンテーションモデルにより、ImageNetの事前学習よりも、他のファッションデータセットの転送学習性能が向上することを示す。
論文 参考訳(メタデータ) (2020-04-26T02:38:26Z) - Fine-Grained Fashion Similarity Learning by Attribute-Specific Embedding
Network [59.479783847922135]
本稿では,複数の属性固有の埋め込みをエンドツーエンドで共同学習するAttribute-Specific Embedding Network (ASEN)を提案する。
ASENは関連する領域を特定し、指定された属性のガイダンスの下で必須のパターンをキャプチャすることができる。
4つのファッション関連データセットの実験は、ファッション類似性学習におけるASENの有効性を示している。
論文 参考訳(メタデータ) (2020-02-07T14:42:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。