論文の概要: Deep Hashing with Semantic Hash Centers for Image Retrieval
- arxiv url: http://arxiv.org/abs/2507.08404v1
- Date: Fri, 11 Jul 2025 08:22:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.293858
- Title: Deep Hashing with Semantic Hash Centers for Image Retrieval
- Title(参考訳): 画像検索のためのセマンティックハッシュセンターによるディープハッシュ
- Authors: Li Chen, Rui Liu, Yuxiang Zhou, Xudong Ma, Yong Chen, Dell Zhang,
- Abstract要約: 本稿では,従来のハッシュセンタの概念に基づくセマンティックハッシュセンタの概念を紹介する。
データ依存的類似性計算を用いてクラス間の意味的類似性を識別する分類ネットワークを開発する。
次に, セマンティック・ハッシュ・センターを生成するアルゴリズムを導入し, セマンティック・ハッシュ・コードに過度に類似しないよう, セマンティック・ハッシュ・センター間の最小距離を保ちながら意味的関連性を維持する。
- 参考スコア(独自算出の注目度): 15.771584515999283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep hashing is an effective approach for large-scale image retrieval. Current methods are typically classified by their supervision types: point-wise, pair-wise, and list-wise. Recent point-wise techniques (e.g., CSQ, MDS) have improved retrieval performance by pre-assigning a hash center to each class, enhancing the discriminability of hash codes across various datasets. However, these methods rely on data-independent algorithms to generate hash centers, which neglect the semantic relationships between classes and may degrade retrieval performance. This paper introduces the concept of semantic hash centers, building on the idea of traditional hash centers. We hypothesize that hash centers of semantically related classes should have closer Hamming distances, while those of unrelated classes should be more distant. To this end, we propose a three-stage framework, SHC, to generate hash codes that preserve semantic structure. First, we develop a classification network to identify semantic similarities between classes using a data-dependent similarity calculation that adapts to varying data distributions. Second, we introduce an optimization algorithm to generate semantic hash centers, preserving semantic relatedness while enforcing a minimum distance between centers to avoid excessively similar hash codes. Finally, a deep hashing network is trained using these semantic centers to convert images into binary hash codes. Experimental results on large-scale retrieval tasks across several public datasets show that SHC significantly improves retrieval performance. Specifically, SHC achieves average improvements of +7.26%, +7.62%, and +11.71% in MAP@100, MAP@1000, and MAP@ALL metrics, respectively, over state-of-the-art methods.
- Abstract(参考訳): ディープハッシュは大規模な画像検索に有効な手法である。
現在の方法は通常、ポイントワイド、ペアワイド、リストワイドの2種類に分類される。
近年のポイントワイズ技術(CSQ,MDSなど)は,各クラスにハッシュセンタを事前割り当てすることで検索性能を改善し,各種データセット間のハッシュコードの識別性を高めている。
しかし、これらの手法は、クラス間の意味的関係を無視し、検索性能を低下させるハッシュセンターを生成するために、データに依存しないアルゴリズムに依存している。
本稿では,従来のハッシュセンタの概念に基づくセマンティックハッシュセンタの概念を紹介する。
セマンティック関連クラスのハッシュセンターは、ハンミング距離が近いべきであり、非関連クラスのハッシュセンターはより遠くにあるべきだという仮説を立てる。
そこで本研究では,意味構造を保存するハッシュコードを生成する3段階のフレームワークであるSHCを提案する。
まず, クラス間の意味的類似性を識別する分類ネットワークを構築し, 様々なデータ分布に適応するデータ依存類似性計算手法を提案する。
次に, セマンティック・ハッシュ・センターを生成するアルゴリズムを導入し, セマンティック・ハッシュ・コードに過度に類似しないよう, セマンティック・ハッシュ・センター間の最小距離を保ちながら意味的関連性を維持する。
最後に、これらのセマンティックセンタを使用して、イメージをバイナリハッシュコードに変換するディープハッシュネットワークをトレーニングする。
複数の公開データセットにわたる大規模検索タスクの実験結果から,SHCは検索性能を大幅に向上することが示された。
具体的には、SHCは、最先端の手法よりも、MAP@100、MAP@1000、MAP@ALLにおける+7.26%、+7.62%、+11.71%の平均的な改善を実現している。
関連論文リスト
- Hashing Learning with Hyper-Class Representation [8.206031417113987]
既存の教師なしハッシュ学習は属性中心の計算の一種である。
データ間の類似性を正確に保存することはできない。
本稿では,超クラス表現を用いたハッシュアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-06T03:35:45Z) - Learning to Hash Naturally Sorts [84.90210592082829]
そこで我々はNaturely-Sorted Hashing (NSH)を導入し,最終結果のソートによる深層ハッシュモデルのトレーニングを行った。
NSHはサンプルのハッシュコードのハミング距離をソートし、それに従って自己教師付きトレーニングのための潜伏した表現を収集する。
Sorted Noise-Contrastive Estimation (SortedNCE) の新たな損失について述べる。
論文 参考訳(メタデータ) (2022-01-31T16:19:02Z) - Deep Asymmetric Hashing with Dual Semantic Regression and Class
Structure Quantization [9.539842235137376]
本稿では,三重制約の下で識別ハッシュを生成する二項意味非対称ハッシュ(DSAH)法を提案する。
これら3つの主要コンポーネントにより、ネットワークを介して高品質なハッシュコードを生成することができる。
論文 参考訳(メタデータ) (2021-10-24T16:14:36Z) - Instance-weighted Central Similarity for Multi-label Image Retrieval [66.23348499938278]
ハッシュコードに対応する中心重みを自動的に学習するために,インスタンス重み付き中央類似度(ICS)を提案する。
特にMS COCOデータセットのmAPを1.6%-6.4%改善する。
論文 参考訳(メタデータ) (2021-08-11T15:18:18Z) - Unsupervised Multi-Index Semantic Hashing [23.169142004594434]
マルチインデックスハッシュに最適化することで,効率的かつ高効率なハッシュコードを学習する教師なしハッシュモデルを提案する。
文書類似度検索のタスクにおいて、MISHと最先端のセマンティックハッシュベースラインを実験的に比較する。
マルチインデックスハッシュは、線形スキャンと比較してベースラインの効率も向上しますが、MISHよりも33%遅くなっています。
論文 参考訳(メタデータ) (2021-03-26T13:33:48Z) - Improved Deep Classwise Hashing With Centers Similarity Learning for
Image Retrieval [19.052163348920512]
本論文では,ハッシュ学習とクラスセンター学習を同時に実現する深層型ハッシュ法を提案する。
提案手法は当初の手法を上回り、最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2021-03-17T05:01:13Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - A Survey on Deep Hashing Methods [52.326472103233854]
最寄りの検索は、データベースからクエリまでの距離が最小のサンプルを取得することを目的としている。
ディープラーニングの発展により、ディープハッシュ法は従来の方法よりも多くの利点を示す。
深い教師付きハッシュは、ペアワイズ法、ランキングベースの方法、ポイントワイズ法、量子化に分類される。
深い教師なしハッシュは、類似性再構築に基づく方法、擬似ラベルに基づく方法、予測自由な自己教師あり学習に基づく方法に分類される。
論文 参考訳(メタデータ) (2020-03-04T08:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。