論文の概要: A Feature Consistency Driven Attention Erasing Network for Fine-Grained
Image Retrieval
- arxiv url: http://arxiv.org/abs/2110.04479v1
- Date: Sat, 9 Oct 2021 06:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 17:35:37.026223
- Title: A Feature Consistency Driven Attention Erasing Network for Fine-Grained
Image Retrieval
- Title(参考訳): 細粒度画像検索のための特徴整合性駆動注意消去ネットワーク
- Authors: Qi Zhao, Xu Wang, Shuchang Lyu, Binghao Liu, Yifan Yang
- Abstract要約: 微細な画像検索のための特徴整合性駆動型アテンション消去ネットワーク(FCAENet)を提案する。
最初の問題として、選択的領域消去モジュール(SREM)であるFCAENetの適応拡張モジュールを提案する。
SREMは、いくつかの原画像領域を適応的にカバーすることで、きめ細かなタスクの微妙な違いに対して、ネットワークをより堅牢にする。
CUB2011, Aircraft, NABirds, VegFru, Food101 for 12bits, 24bits, 32bits, 48bits hash code。
- 参考スコア(独自算出の注目度): 23.76079577951216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale fine-grained image retrieval has two main problems. First, low
dimensional feature embedding can fasten the retrieval process but bring
accuracy reduce due to overlooking the feature of significant attention regions
of images in fine-grained datasets. Second, fine-grained images lead to the
same category query hash codes mapping into the different cluster in database
hash latent space. To handle these two issues, we propose a feature consistency
driven attention erasing network (FCAENet) for fine-grained image retrieval.
For the first issue, we propose an adaptive augmentation module in FCAENet,
which is selective region erasing module (SREM). SREM makes the network more
robust on subtle differences of fine-grained task by adaptively covering some
regions of raw images. The feature extractor and hash layer can learn more
representative hash code for fine-grained images by SREM. With regard to the
second issue, we fully exploit the pair-wise similarity information and add the
enhancing space relation loss (ESRL) in FCAENet to make the vulnerable relation
stabler between the query hash code and database hash code. We conduct
extensive experiments on five fine-grained benchmark datasets (CUB2011,
Aircraft, NABirds, VegFru, Food101) for 12bits, 24bits, 32bits, 48bits hash
code. The results show that FCAENet achieves the state-of-the-art (SOTA)
fine-grained retrieval performance compared with other methods.
- Abstract(参考訳): 大規模精細画像検索には2つの大きな問題がある。
第一に、低次元の特徴埋め込みは検索プロセスを高速化するが、きめ細かいデータセットにおける画像の注意領域の特徴を見渡すことによって精度を低下させる。
第二に、きめ細かい画像は、データベースハッシュ潜在空間内の異なるクラスタにマッピングされた同じカテゴリクエリハッシュコードにつながる。
これら2つの問題に対処するため,細粒度画像検索のための特徴整合型注意消去ネットワーク(FCAENet)を提案する。
まず,選択的領域消去モジュール (SREM) であるFCAENetの適応拡張モジュールを提案する。
SREMは、いくつかの原画像領域を適応的にカバーすることで、細かなタスクの微妙な違いに対してネットワークをより堅牢にする。
特徴抽出器およびハッシュ層は、SREMにより微細な画像のより代表的なハッシュコードを学ぶことができる。
第2の課題では,対方向の類似情報を十分に活用し,fcaenet の空間関係損失(esrl)を増大させ,クエリハッシュコードとデータベースハッシュコードとの間の脆弱な関係を安定させる。
12ビット、24ビット、32ビット、48ビットのハッシュコードに対して、cub2011、aircraft、nabirds、vegfru、food101)の5つのきめ細かいベンチマークデータセット(cub2011、aircraft、nabirds、vegfru、food101)を広範囲に実験した。
その結果, FCAENetは, 他の手法と比較して細粒度検索性能が高いことがわかった。
関連論文リスト
- Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - Cascading Hierarchical Networks with Multi-task Balanced Loss for
Fine-grained hashing [1.6244541005112747]
きめ細かいハッシュは従来のハッシュ問題よりも難しい。
本稿では,コンパクトでセマンティックなハッシュコードを学習するためのカスケードネットワークを提案する。
また,マルチタスク学習の損失を協調的にバランスさせる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-20T17:08:48Z) - Cross-Scale Context Extracted Hashing for Fine-Grained Image Binary
Encoding [1.3649494534428745]
本稿では,クロススケールコンテキスト抽出ハッシュネットワーク(CSCE-Net)を提案する。
CSCE-Netはコンテンツ関連動的サイン関数(DSF)を学習し、元の単純なサイン関数を置き換える。
我々のCSCE-Netは文脈に敏感で、正確な画像バイナリエンコーディングでうまく機能する。
論文 参考訳(メタデータ) (2022-10-14T06:52:40Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Asymmetric Hash Code Learning for Remote Sensing Image Retrieval [22.91678927865952]
リモートセンシング画像検索のための非対称ハッシュ符号学習(AHCL)という新しい深層ハッシュ法を提案する。
AHCLは、クエリとデータベースイメージのハッシュコードを非対称に生成する。
3つの公開データセットに対する実験結果から,提案手法は精度と効率の点で対称法より優れていることが示された。
論文 参考訳(メタデータ) (2022-01-15T07:00:38Z) - Combined Depth Space based Architecture Search For Person
Re-identification [70.86236888223569]
個人再識別(ReID)のための軽量で適切なネットワークの設計を目指しています。
本研究では,CDNetと呼ばれる効率的なネットワークアーキテクチャの探索に基づく,複合深さ空間(Componed Depth Space, CDS)と呼ばれる新しい検索空間を提案する。
そこで我々はTop-k Sample Search戦略という低コストの検索戦略を提案し、検索空間をフル活用し、局所的な最適結果のトラップを避ける。
論文 参考訳(メタデータ) (2021-04-09T02:40:01Z) - Deep Triplet Hashing Network for Case-based Medical Image Retrieval [33.21919320742157]
我々は、低次元のハッシュコードを学ぶために、Attention-based Triplet Hashing (ATH) ネットワークと呼ばれるエンドツーエンドのフレームワークを提案する。
提案したATHは,最先端のディープハッシュ法と比較して,検索性能を向上できることを示す。
論文 参考訳(メタデータ) (2021-01-29T01:35:46Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - ExchNet: A Unified Hashing Network for Large-Scale Fine-Grained Image
Retrieval [43.41089241581596]
そこで我々は, きめ細かい画像のためのコンパクトなバイナリコードを生成するために, 新たなきめ細かなハッシュトピックについて検討した。
我々は、ExchNetと呼ばれる、エンドツーエンドのトレーニング可能な統合ネットワークを提案する。
提案手法は,5つのきめ細かいデータセットに対して,最先端の汎用ハッシュ法より一貫して優れている。
論文 参考訳(メタデータ) (2020-08-04T07:01:32Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。