論文の概要: FashionSearchNet-v2: Learning Attribute Representations with
Localization for Image Retrieval with Attribute Manipulation
- arxiv url: http://arxiv.org/abs/2111.14145v1
- Date: Sun, 28 Nov 2021 13:50:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 09:33:59.290736
- Title: FashionSearchNet-v2: Learning Attribute Representations with
Localization for Image Retrieval with Attribute Manipulation
- Title(参考訳): FashionSearchNet-v2: 属性操作による画像検索のための局所化による属性表現の学習
- Authors: Kenan E. Ak, Joo Hwee Lim, Ying Sun, Jo Yew Tham, Ashraf A. Kassim
- Abstract要約: 提案されているFashionSearchNet-v2アーキテクチャは、その弱教師付きローカライゼーションモジュールを利用して属性固有の表現を学習することができる。
ネットワークは属性分類と三重項ランキング損失の組み合わせで共同で訓練され、局所表現を推定する。
FashionSearchNet-v2は、属性数の観点からリッチないくつかのデータセットで実施された実験により、他の最先端属性操作技術よりも優れていた。
- 参考スコア(独自算出の注目度): 22.691709684780292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The focus of this paper is on the problem of image retrieval with attribute
manipulation. Our proposed work is able to manipulate the desired attributes of
the query image while maintaining its other attributes. For example, the collar
attribute of the query image can be changed from round to v-neck to retrieve
similar images from a large dataset. A key challenge in e-commerce is that
images have multiple attributes where users would like to manipulate and it is
important to estimate discriminative feature representations for each of these
attributes. The proposed FashionSearchNet-v2 architecture is able to learn
attribute specific representations by leveraging on its weakly-supervised
localization module, which ignores the unrelated features of attributes in the
feature space, thus improving the similarity learning. The network is jointly
trained with the combination of attribute classification and triplet ranking
loss to estimate local representations. These local representations are then
merged into a single global representation based on the instructed attribute
manipulation where desired images can be retrieved with a distance metric. The
proposed method also provides explainability for its retrieval process to help
provide additional information on the attention of the network. Experiments
performed on several datasets that are rich in terms of the number of
attributes show that FashionSearchNet-v2 outperforms the other state-of-the-art
attribute manipulation techniques. Different than our earlier work
(FashionSearchNet), we propose several improvements in the learning procedure
and show that the proposed FashionSearchNet-v2 can be generalized to different
domains other than fashion.
- Abstract(参考訳): 本稿では,属性操作による画像検索の問題に焦点をあてる。
提案手法は,クエリ画像の所望の属性を他の属性を維持しながら操作することができる。
例えば、クエリイメージのカラー属性をラウンドからvネックに変更して、大きなデータセットから類似したイメージを検索することができる。
eコマースの重要な課題は、画像がユーザーが操作したい複数の属性を持ち、これらの属性ごとに識別的特徴表現を推定することが重要であることである。
提案する fashionsearchnet-v2 アーキテクチャは,特徴空間における属性の無関係な特徴を無視し,類似性学習を改善する弱教師付きローカライズモジュールを利用することで,属性固有の表現を学習することができる。
ネットワークは属性分類と三重項ランキング損失の組み合わせで共同で訓練され、局所表現を推定する。
これらの局所表現は、指示された属性操作に基づいて単一のグローバル表現にマージされ、所望の画像は距離メトリックで取得できる。
提案手法は,検索プロセスの説明可能性も提供し,ネットワークの注意点に関する追加情報を提供する。
属性数で豊富なデータセットで行った実験は、fashionsearchnet-v2が他の最先端属性操作技術よりも優れていることを示している。
これまでの研究(FashionSearchNet)と異なり、学習手順のいくつかの改善を提案し、提案したFashionSearchNet-v2がファッション以外の分野に一般化可能であることを示す。
関連論文リスト
- ARMADA: Attribute-Based Multimodal Data Augmentation [93.05614922383822]
Attribute-based Multimodal Data Augmentation (ARMADA) は、知識誘導による視覚属性の操作による新しいマルチモーダルデータ拡張手法である。
ARMADAは、新しいマルチモーダルデータ生成フレームワークである。 (i) 意味的に一貫性があるがユニークな画像-テキストペア生成のために、シンボリックKBから知識基底属性を抽出する。
これはまた、解釈可能性の向上と現実世界の接地のために外部の知識プロキシを活用する必要性を強調している。
論文 参考訳(メタデータ) (2024-08-19T15:27:25Z) - Learning Concise and Descriptive Attributes for Visual Recognition [25.142065847381758]
数千の属性をクエリすることで、画像機能と競合するパフォーマンスが得られることを示す。
そこで本研究では,これらの属性の簡潔な集合を見つけるための新しい学習・探索手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T16:00:22Z) - Attribute-Guided Multi-Level Attention Network for Fine-Grained Fashion Retrieval [27.751399400911932]
本稿では,細粒度ファッション検索のための属性誘導型マルチレベルアテンションネットワーク(AG-MAN)を提案する。
具体的には、まず事前訓練された特徴抽出器を拡張し、マルチレベル画像埋め込みをキャプチャする。
そこで本研究では,同じ属性を持つ画像と異なる値を持つ画像とを同一のクラスに分類する分類手法を提案する。
論文 参考訳(メタデータ) (2022-12-27T05:28:38Z) - Supervised Attribute Information Removal and Reconstruction for Image
Manipulation [15.559224431459551]
本稿では,そのような情報の隠蔽を防止する属性情報除去・再構築ネットワークを提案する。
我々は,DeepFashion Synthesis,DeepFashion Fine-fine Attribute,CelebA,CelebA-HQなど,さまざまな属性を持つ4つの多様なデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-13T23:30:44Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Scalable Visual Attribute Extraction through Hidden Layers of a Residual
ConvNet [7.6702700993064115]
本稿では,一般畳み込みネットワークの隠れたレイヤの学習能力を活用し,画像から視覚属性を抽出する手法を提案する。
imagenetでトレーニングされたresnet-50を用いて実験を行い、色とテクスチャを区別するために異なるブロックの出力を評価する。
論文 参考訳(メタデータ) (2021-03-31T23:39:20Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z) - Joint Item Recommendation and Attribute Inference: An Adaptive Graph
Convolutional Network Approach [61.2786065744784]
レコメンデーションシステムでは、ユーザとアイテムは属性に関連付けられ、ユーザはアイテムの好みを表示する。
ユーザ(item)属性をアノテートすることは労働集約的なタスクであるため、属性値が欠落している多くの属性値と不完全であることが多い。
本稿では,共同項目推薦と属性推論のための適応グラフ畳み込みネットワーク(AGCN)アプローチを提案する。
論文 参考訳(メタデータ) (2020-05-25T10:50:01Z) - Fashionpedia: Ontology, Segmentation, and an Attribute Localization
Dataset [62.77342894987297]
本稿では,インスタンス分割と局所化属性認識を共同で行う新しい属性・マスクRCNNモデルを提案する。
また、Fashionpediaで事前学習したインスタンスセグメンテーションモデルにより、ImageNetの事前学習よりも、他のファッションデータセットの転送学習性能が向上することを示す。
論文 参考訳(メタデータ) (2020-04-26T02:38:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。