論文の概要: Improved Deep Classwise Hashing With Centers Similarity Learning for
Image Retrieval
- arxiv url: http://arxiv.org/abs/2103.09442v1
- Date: Wed, 17 Mar 2021 05:01:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 12:54:12.264678
- Title: Improved Deep Classwise Hashing With Centers Similarity Learning for
Image Retrieval
- Title(参考訳): 画像検索のためのセンター類似性学習によるディープクラスワイズハッシュの改善
- Authors: Ming Zhang, Hong Yan
- Abstract要約: 本論文では,ハッシュ学習とクラスセンター学習を同時に実現する深層型ハッシュ法を提案する。
提案手法は当初の手法を上回り、最先端のベースラインを上回ります。
- 参考スコア(独自算出の注目度): 19.052163348920512
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep supervised hashing for image retrieval has attracted researchers'
attention due to its high efficiency and superior retrieval performance. Most
existing deep supervised hashing works, which are based on pairwise/triplet
labels, suffer from the expensive computational cost and insufficient
utilization of the semantics information. Recently, deep classwise hashing
introduced a classwise loss supervised by class labels information
alternatively; however, we find it still has its drawback. In this paper, we
propose an improved deep classwise hashing, which enables hashing learning and
class centers learning simultaneously. Specifically, we design a two-step
strategy on center similarity learning. It interacts with the classwise loss to
attract the class center to concentrate on the intra-class samples while
pushing other class centers as far as possible. The centers similarity learning
contributes to generating more compact and discriminative hashing codes. We
conduct experiments on three benchmark datasets. It shows that the proposed
method effectively surpasses the original method and outperforms
state-of-the-art baselines under various commonly-used evaluation metrics for
image retrieval.
- Abstract(参考訳): 画像検索のための深い教師付きハッシュは、高い効率と優れた検索性能のために研究者の注意を引き付けている。
既存の深い教師付きハッシュ処理のほとんどは、ペアワイズ/トリップレットラベルに基づいており、高価な計算コストとセマンティクス情報の不十分な利用に苦しむ。
最近、ディープクラスワイズハッシュはクラスラベル情報によって監視されるクラスワイズ損失を導入したが、それでもその欠点があることがわかった。
そこで本稿では,ハッシュ学習とクラスセンター学習を同時に行うことができる,深層ハッシュの改良手法を提案する。
具体的には,センター類似性学習のための2段階の戦略を設計する。
クラス内の損失と相互作用してクラスセンターを引き寄せ、クラス内のサンプルに集中し、他のクラスセンターを可能な限りプッシュする。
センター類似性学習は、よりコンパクトで識別的なハッシュコードを生成するのに寄与する。
3つのベンチマークデータセットで実験を行う。
提案手法は, 画像検索のための様々な評価基準において, 元の手法を効果的に超越し, 最先端のベースラインを上回っていることを示す。
関連論文リスト
- CgAT: Center-Guided Adversarial Training for Deep Hashing-Based
Retrieval [12.421908811085627]
我々は、深層ハッシュネットワークの繰り返しを改善するために、min-maxベースのCenter-guided Adversarial Training(CgAT)を提案する。
CgATは、ハミング距離を中心符号に最小化することで、敵対的なサンプルの効果を緩和することを学ぶ。
現状の防御法と比較して, 防御性能は平均18.61%向上した。
論文 参考訳(メタデータ) (2022-04-18T04:51:08Z) - Deep Asymmetric Hashing with Dual Semantic Regression and Class
Structure Quantization [9.539842235137376]
本稿では,三重制約の下で識別ハッシュを生成する二項意味非対称ハッシュ(DSAH)法を提案する。
これら3つの主要コンポーネントにより、ネットワークを介して高品質なハッシュコードを生成することができる。
論文 参考訳(メタデータ) (2021-10-24T16:14:36Z) - Instance-weighted Central Similarity for Multi-label Image Retrieval [66.23348499938278]
ハッシュコードに対応する中心重みを自動的に学習するために,インスタンス重み付き中央類似度(ICS)を提案する。
特にMS COCOデータセットのmAPを1.6%-6.4%改善する。
論文 参考訳(メタデータ) (2021-08-11T15:18:18Z) - Self-supervised asymmetric deep hashing with margin-scalable constraint
for image retrieval [3.611160663701664]
画像検索のためのマージンスケール可能な制約(SADH)アプローチを備えた,新しい自己監視型非対称深ハッシュ法を提案する。
sadhは自己教師付きネットワークを実装し、セマンティック特徴マップに意味情報を保存し、与えられたデータセットのセマンティクスを意味コードマップに格納する。
特徴学習部では、ハミング空間におけるペア関係の高精度な構築とより識別的なハッシュコード表現の両方に、新たなマージンスケータブル制約を用いる。
論文 参考訳(メタデータ) (2020-12-07T16:09:37Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - A Survey on Deep Hashing Methods [52.326472103233854]
最寄りの検索は、データベースからクエリまでの距離が最小のサンプルを取得することを目的としている。
ディープラーニングの発展により、ディープハッシュ法は従来の方法よりも多くの利点を示す。
深い教師付きハッシュは、ペアワイズ法、ランキングベースの方法、ポイントワイズ法、量子化に分類される。
深い教師なしハッシュは、類似性再構築に基づく方法、擬似ラベルに基づく方法、予測自由な自己教師あり学習に基づく方法に分類される。
論文 参考訳(メタデータ) (2020-03-04T08:25:15Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。