論文の概要: From Region to Patch: Attribute-Aware Foreground-Background Contrastive
Learning for Fine-Grained Fashion Retrieval
- arxiv url: http://arxiv.org/abs/2305.10260v1
- Date: Wed, 17 May 2023 14:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 15:20:54.640146
- Title: From Region to Patch: Attribute-Aware Foreground-Background Contrastive
Learning for Fine-Grained Fashion Retrieval
- Title(参考訳): 地域からパッチ: ファイングレード・ファッション検索のためのフォアグラウンド・コントラスト学習
- Authors: Jianfeng Dong, Xiaoman Peng, Zhe Ma, Daizong Liu, Xiaoye Qu, Xun Yang,
Jixiang Zhu, Baolong Liu
- Abstract要約: 属性特化ファッション検索(ASFR)は難易度の高い情報検索課題である。
本研究では,細粒度属性関連視覚特徴を抽出するRegional-to-Patch Framework(RPF)を提案する。
筆者らのフレームワークは,領域の局所化と特徴抽出の適切なバランスをとる。
- 参考スコア(独自算出の注目度): 27.931767073714635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attribute-specific fashion retrieval (ASFR) is a challenging information
retrieval task, which has attracted increasing attention in recent years.
Different from traditional fashion retrieval which mainly focuses on optimizing
holistic similarity, the ASFR task concentrates on attribute-specific
similarity, resulting in more fine-grained and interpretable retrieval results.
As the attribute-specific similarity typically corresponds to the specific
subtle regions of images, we propose a Region-to-Patch Framework (RPF) that
consists of a region-aware branch and a patch-aware branch to extract
fine-grained attribute-related visual features for precise retrieval in a
coarse-to-fine manner. In particular, the region-aware branch is first to be
utilized to locate the potential regions related to the semantic of the given
attribute. Then, considering that the located region is coarse and still
contains the background visual contents, the patch-aware branch is proposed to
capture patch-wise attribute-related details from the previous amplified
region. Such a hybrid architecture strikes a proper balance between region
localization and feature extraction. Besides, different from previous works
that solely focus on discriminating the attribute-relevant foreground visual
features, we argue that the attribute-irrelevant background features are also
crucial for distinguishing the detailed visual contexts in a contrastive
manner. Therefore, a novel E-InfoNCE loss based on the foreground and
background representations is further proposed to improve the discrimination of
attribute-specific representation. Extensive experiments on three datasets
demonstrate the effectiveness of our proposed framework, and also show a decent
generalization of our RPF on out-of-domain fashion images. Our source code is
available at https://github.com/HuiGuanLab/RPF.
- Abstract(参考訳): 属性特化ファッション検索(ASFR)は,近年注目を集めている,難易度の高い情報検索課題である。
全体的な類似度を最適化することに集中する伝統的なファッション検索とは異なり、ASFRタスクは属性固有の類似性に集中し、よりきめ細やかで解釈可能な検索結果をもたらす。
属性固有の類似性は通常、画像の特定の微妙な領域に対応するため、領域対応のブランチとパッチ対応のブランチからなる領域間パッチフレームワーク(RPF)を提案し、詳細な属性関連視覚特徴を粗い方法で抽出する。
特に、リージョンアウェアブランチは、与えられた属性の意味に関する潜在的な領域を見つけるために最初に使用される。
そして、位置領域が粗く、なおも背景の視覚的内容を含んでいることを考慮し、パッチ対応ブランチを提案し、以前の増幅領域からパッチワイド属性関連の詳細をキャプチャする。
このようなハイブリッドアーキテクチャは、領域のローカライゼーションと特徴抽出の適切なバランスをとる。
また,属性関連前景の視覚的特徴を識別することのみに焦点を絞った従来の作品と異なり,属性関連背景特徴は,詳細な視覚的文脈を対照的に区別するためにも重要であると論じている。
そこで,前景と背景表現に基づく新たなE-InfoNCE損失が提案され,属性固有表現の識別が向上した。
3つのデータセットに対する大規模な実験は,提案手法の有効性を示すとともに,ドメイン外のファッションイメージに対するRPFの適切な一般化を示す。
ソースコードはhttps://github.com/huiguanlab/rpfで入手できます。
関連論文リスト
- Selective Domain-Invariant Feature for Generalizable Deepfake Detection [21.671221284842847]
本稿では,コンテンツの特徴やスタイルを融合させることにより,顔の偽造に対する感受性を低下させる新しいフレームワークを提案する。
既存のベンチマークと提案における質的および定量的な結果の両方が、我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2024-03-19T13:09:19Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Attribute-Guided Multi-Level Attention Network for Fine-Grained Fashion Retrieval [27.751399400911932]
本稿では,細粒度ファッション検索のための属性誘導型マルチレベルアテンションネットワーク(AG-MAN)を提案する。
具体的には、まず事前訓練された特徴抽出器を拡張し、マルチレベル画像埋め込みをキャプチャする。
そこで本研究では,同じ属性を持つ画像と異なる値を持つ画像とを同一のクラスに分類する分類手法を提案する。
論文 参考訳(メタデータ) (2022-12-27T05:28:38Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Pedestrian Attribute Recognition in Video Surveillance Scenarios Based
on View-attribute Attention Localization [8.807717261983539]
注目度(VALA)に基づく新しいビュー属性ローカライズ手法を提案する。
特定のビュー属性は、抽出された属性特徴と、異なるビューからの属性に対する信頼度としてビュー予測器によって予測される4つのビュースコアによって構成される。
3つのワイドデータセット(RAP, RAPv2, PETA, PA-100K)による実験により, 最先端手法と比較して, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2021-06-11T16:09:31Z) - Fine-Grained Fashion Similarity Prediction by Attribute-Specific
Embedding Learning [71.74073012364326]
ASEN(Attribute-Specific Embedding Network)を提案し、複数の属性固有の埋め込みを共同学習する。
提案したASENはグローバルブランチとローカルブランチで構成されている。
ファッション関連データセットであるFashionAI、DARN、DeepFashionの3つの実験は、ファッション類似性予測におけるASENの有効性を示している。
論文 参考訳(メタデータ) (2021-04-06T11:26:38Z) - DoFE: Domain-oriented Feature Embedding for Generalizable Fundus Image
Segmentation on Unseen Datasets [96.92018649136217]
対象ドメインに対するCNNの一般化能力を向上させるために,新しいドメイン指向特徴埋め込み(DoFE)フレームワークを提案する。
私たちのDoFEフレームワークは、マルチソースドメインから学んだ追加のドメイン事前知識で、画像機能を動的に強化します。
本フレームワークは、未確認データセットのセグメンテーション結果を満足して生成し、他の領域の一般化やネットワークの正規化手法を超越する。
論文 参考訳(メタデータ) (2020-10-13T07:28:39Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。