論文の概要: Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval
- arxiv url: http://arxiv.org/abs/2311.12894v1
- Date: Tue, 21 Nov 2023 08:20:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 17:37:42.134012
- Title: Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval
- Title(参考訳): 大規模微細画像検索のための自己整合性を考慮した属性認識深部ハッシュ
- Authors: Xiu-Shen Wei and Yang Shen and Xuhao Sun and Peng Wang and Yuxin Peng
- Abstract要約: 本稿では属性認識ハッシュコードを生成するための自己整合性を持つ属性認識ハッシュネットワークを提案する。
本研究では,高レベル属性固有ベクトルを教師なしで蒸留する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
我々のモデルは,これらの属性ベクトルに特徴デコリレーション制約を設けて,それらの代表的能力を強化する。
- 参考スコア(独自算出の注目度): 65.43522019468976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our work focuses on tackling large-scale fine-grained image retrieval as
ranking the images depicting the concept of interests (i.e., the same
sub-category labels) highest based on the fine-grained details in the query. It
is desirable to alleviate the challenges of both fine-grained nature of small
inter-class variations with large intra-class variations and explosive growth
of fine-grained data for such a practical task. In this paper, we propose
attribute-aware hashing networks with self-consistency for generating
attribute-aware hash codes to not only make the retrieval process efficient,
but also establish explicit correspondences between hash codes and visual
attributes. Specifically, based on the captured visual representations by
attention, we develop an encoder-decoder structure network of a reconstruction
task to unsupervisedly distill high-level attribute-specific vectors from the
appearance-specific visual representations without attribute annotations. Our
models are also equipped with a feature decorrelation constraint upon these
attribute vectors to strengthen their representative abilities. Then, driven by
preserving original entities' similarity, the required hash codes can be
generated from these attribute-specific vectors and thus become
attribute-aware. Furthermore, to combat simplicity bias in deep hashing, we
consider the model design from the perspective of the self-consistency
principle and propose to further enhance models' self-consistency by equipping
an additional image reconstruction path. Comprehensive quantitative experiments
under diverse empirical settings on six fine-grained retrieval datasets and two
generic retrieval datasets show the superiority of our models over competing
methods.
- Abstract(参考訳): 本研究は,クエリの細かな詳細に基づいて,興味のコンセプト(すなわち同じサブカテゴリラベル)を描いた画像をランク付けすることとして,大規模精細画像検索に取り組むことに焦点を当てている。
大きなクラス内変動を伴う小さなクラス間変動のきめ細かな性質と、そのような実用的な課題のためにきめ細かいデータの爆発的成長の課題を緩和することが望ましい。
本稿では,属性対応ハッシュコードを生成するための自己整合性を持つ属性対応ハッシュネットワークを提案し,検索プロセスを効率化するだけでなく,ハッシュコードと視覚属性との明確な対応性を確立する。
具体的には、注目による視覚的表現に基づいて、属性アノテーションを使わずに高レベルな属性固有ベクトルを非教師的に抽出する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
また,これらの属性ベクトルに特徴デコレーション制約を設けて,それらの代表的能力を強化する。
次に、元のエンティティの類似性を保存することで、必要なハッシュコードをこれらの属性固有ベクトルから生成し、属性認識する。
さらに, 深部ハッシュにおける単純さバイアスに対処するため, 自己整合性原理の観点からモデル設計を考察し, 付加的な画像再構成経路を設けることでモデルの自己整合性をさらに高めることを提案する。
6つの細粒度検索データセットと2つのジェネリック検索データセットの多様な実験条件下での定量的実験は、競合する手法よりもモデルの方が優れていることを示す。
関連論文リスト
- Enhancing Fine-Grained Visual Recognition in the Low-Data Regime Through Feature Magnitude Regularization [23.78498670529746]
抽出した特徴量の均等分布を保証するために正規化手法を導入する。
その明らかな単純さにもかかわらず、我々の手法は様々な細粒度視覚認識データセットに対して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-03T07:32:46Z) - Attributes Grouping and Mining Hashing for Fine-Grained Image Retrieval [24.8065557159198]
微粒な画像検索のための属性グループとマイニングハッシュ(AGMH)を提案する。
AGMHはカテゴリ固有の視覚属性を複数の記述子にグループ化し、包括的特徴表現を生成する。
AGMHは、きめ細かいベンチマークデータセットの最先端メソッドに対して、一貫して最高のパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-11-10T14:01:56Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Learning Structured Output Representations from Attributes using Deep
Conditional Generative Models [0.0]
本稿では,条件付き変分オートエンコーダアーキテクチャを再現し,属性を条件付き画像でトレーニングする。
毛髪の色や眼鏡などの特徴の異なる新しい顔と、異なる鳥類種のサンプルを創り出そうとする。
論文 参考訳(メタデータ) (2023-04-30T17:25:31Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Contextual Similarity Aggregation with Self-attention for Visual
Re-ranking [96.55393026011811]
本稿では,自己注意を伴う文脈的類似性集約による視覚的再ランク付け手法を提案する。
提案手法の汎用性と有効性を示すため,4つのベンチマークデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2021-10-26T06:20:31Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z) - Attribute Mix: Semantic Data Augmentation for Fine Grained Recognition [102.45926816660665]
本研究では属性レベルのデータ拡張戦略であるAttribute Mixを提案する。
その原則は、属性の特徴が細粒度のサブカテゴリ間で共有され、画像間でシームレスに転送可能であることである。
論文 参考訳(メタデータ) (2020-04-06T14:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。