論文の概要: Effectively Leveraging Attributes for Visual Similarity
- arxiv url: http://arxiv.org/abs/2105.01695v1
- Date: Tue, 4 May 2021 18:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:49:56.967018
- Title: Effectively Leveraging Attributes for Visual Similarity
- Title(参考訳): 視覚的類似性を効果的に活用する
- Authors: Samarth Mishra, Zhongping Zhang, Yuan Shen, Ranjitha Kumar, Venkatesh
Saligrama, Bryan Plummer
- Abstract要約: Pairwise Attribute-Informed similarity Network (PAN) を提案する。このネットワークは、類似性学習を2つの画像の共同表現から類似性条件と関連性スコアをキャプチャする。
PANは、Polyvore Outfits上の服品間の互換性予測を4-9%改善し、Caltech-UCSD Birds (CUB)を使用した画像の少数分類で5%向上し、In-Shop Clothes RetrievalでRecall@1に1%アップした。
- 参考スコア(独自算出の注目度): 52.2646549020835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Measuring similarity between two images often requires performing complex
reasoning along different axes (e.g., color, texture, or shape). Insights into
what might be important for measuring similarity can can be provided by
annotated attributes, but prior work tends to view these annotations as
complete, resulting in them using a simplistic approach of predicting
attributes on single images, which are, in turn, used to measure similarity.
However, it is impractical for a dataset to fully annotate every attribute that
may be important. Thus, only representing images based on these incomplete
annotations may miss out on key information. To address this issue, we propose
the Pairwise Attribute-informed similarity Network (PAN), which breaks
similarity learning into capturing similarity conditions and relevance scores
from a joint representation of two images. This enables our model to identify
that two images contain the same attribute, but can have it deemed irrelevant
(e.g., due to fine-grained differences between them) and ignored for measuring
similarity between the two images. Notably, while prior methods of using
attribute annotations are often unable to outperform prior art, PAN obtains a
4-9% improvement on compatibility prediction between clothing items on Polyvore
Outfits, a 5\% gain on few shot classification of images using Caltech-UCSD
Birds (CUB), and over 1% boost to Recall@1 on In-Shop Clothes Retrieval.
- Abstract(参考訳): 2つの画像の類似性を測定するには、しばしば異なる軸(色、テクスチャ、形状など)に沿って複雑な推論を行う必要がある。
類似度を測定するために重要なものに対する洞察はアノテート属性によって提供されるが、事前の作業ではこれらのアノテーションを完全なものとみなす傾向があり、結果として、類似度を測定するために使用される単一の画像上の属性を予測するという単純なアプローチが用いられる。
しかし、データセットが重要かもしれないすべての属性を完全にアノテートするのは現実的ではない。
したがって、これらの不完全なアノテーションに基づく画像のみを表現することは、キー情報から外れる可能性がある。
そこで,本稿では,類似度学習を破って類似度条件と関連度スコアを2つの画像の結合表現から取得するペアワイズ属性型類似度ネットワーク (pan) を提案する。
これにより、2つの画像が同一の属性を含むことを識別できるが、2つの画像の類似性を測定するために無視される(例えば、両者の微妙な違いのため)。
特に、属性アノテーションの以前の方法が先行技術より優れている場合が多いが、PANはPolyvore Outfits上の服品間の互換性の予測を4-9%改善し、Caltech-UCSD Birds (CUB) を使用した少数の画像の分類では5倍、In-Shop Clothes Retrievalでは1%以上向上している。
関連論文リスト
- PRISM: PRogressive dependency maxImization for Scale-invariant image Matching [4.9521269535586185]
スケール不変画像マッチング(PRISM)のためのPRogressive dependency maximizationを提案する。
提案手法は,各種評価ベンチマークや下流タスクの精度向上により,より優れたマッチング性能と一般化能力を確認した。
論文 参考訳(メタデータ) (2024-08-07T07:35:17Z) - Interpretable Measures of Conceptual Similarity by
Complexity-Constrained Descriptive Auto-Encoding [112.0878081944858]
画像間の類似度を定量化することは、画像ベースの機械学習にとって重要な著作権問題である。
我々は,高次関係を捉えた画像間での「概念的類似性」の概念を定義し,計算することを目指している。
2つの非常に異種な画像は、その記述の早い段階で識別できるが、概念的に異種な画像は、より詳細を区別する必要がある。
論文 参考訳(メタデータ) (2024-02-14T03:31:17Z) - Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval [65.43522019468976]
本稿では属性認識ハッシュコードを生成するための自己整合性を持つ属性認識ハッシュネットワークを提案する。
本研究では,高レベル属性固有ベクトルを教師なしで蒸留する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
我々のモデルは,これらの属性ベクトルに特徴デコリレーション制約を設けて,それらの代表的能力を強化する。
論文 参考訳(メタデータ) (2023-11-21T08:20:38Z) - Soft Neighbors are Positive Supporters in Contrastive Visual
Representation Learning [35.53729744330751]
コントラスト学習法は、あるインスタンスと他のインスタンスのビューを比較して視覚エンコーダを訓練する。
このバイナリインスタンス識別は、自己教師付き学習における特徴表現を改善するために広範囲に研究されている。
本稿では、インスタンス識別フレームワークを再考し、異なるサンプル間の相関を測定するのに不十分なバイナリインスタンスラベルを見つける。
論文 参考訳(メタデータ) (2023-03-30T04:22:07Z) - Attribute-Guided Multi-Level Attention Network for Fine-Grained Fashion Retrieval [27.751399400911932]
本稿では,細粒度ファッション検索のための属性誘導型マルチレベルアテンションネットワーク(AG-MAN)を提案する。
具体的には、まず事前訓練された特徴抽出器を拡張し、マルチレベル画像埋め込みをキャプチャする。
そこで本研究では,同じ属性を持つ画像と異なる値を持つ画像とを同一のクラスに分類する分類手法を提案する。
論文 参考訳(メタデータ) (2022-12-27T05:28:38Z) - FashionSearchNet-v2: Learning Attribute Representations with
Localization for Image Retrieval with Attribute Manipulation [22.691709684780292]
提案されているFashionSearchNet-v2アーキテクチャは、その弱教師付きローカライゼーションモジュールを利用して属性固有の表現を学習することができる。
ネットワークは属性分類と三重項ランキング損失の組み合わせで共同で訓練され、局所表現を推定する。
FashionSearchNet-v2は、属性数の観点からリッチないくつかのデータセットで実施された実験により、他の最先端属性操作技術よりも優れていた。
論文 参考訳(メタデータ) (2021-11-28T13:50:20Z) - Fine-Grained Fashion Similarity Prediction by Attribute-Specific
Embedding Learning [71.74073012364326]
ASEN(Attribute-Specific Embedding Network)を提案し、複数の属性固有の埋め込みを共同学習する。
提案したASENはグローバルブランチとローカルブランチで構成されている。
ファッション関連データセットであるFashionAI、DARN、DeepFashionの3つの実験は、ファッション類似性予測におけるASENの有効性を示している。
論文 参考訳(メタデータ) (2021-04-06T11:26:38Z) - Learning to Infer Unseen Attribute-Object Compositions [55.58107964602103]
単一属性と多属性オブジェクトの両方を柔軟に認識できるグラフベースモデルを提案する。
我々は116,099の画像と8,030の合成カテゴリを持つ大規模マルチ属性データセットを構築した。
論文 参考訳(メタデータ) (2020-10-27T14:57:35Z) - Attribute Mix: Semantic Data Augmentation for Fine Grained Recognition [102.45926816660665]
本研究では属性レベルのデータ拡張戦略であるAttribute Mixを提案する。
その原則は、属性の特徴が細粒度のサブカテゴリ間で共有され、画像間でシームレスに転送可能であることである。
論文 参考訳(メタデータ) (2020-04-06T14:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。