論文の概要: Codebook-Centric Deep Hashing: End-to-End Joint Learning of Semantic Hash Centers and Neural Hash Function
- arxiv url: http://arxiv.org/abs/2511.12162v1
- Date: Sat, 15 Nov 2025 11:14:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.647685
- Title: Codebook-Centric Deep Hashing: End-to-End Joint Learning of Semantic Hash Centers and Neural Hash Function
- Title(参考訳): Codebook-Centric Deep Hashing:意味型ハッシュセンターのエンドツーエンド共同学習とニューラルハッシュ機能
- Authors: Shuo Yin, Zhiyuan Yin, Yuqing Hou, Rui Liu, Yong Chen, Dell Zhang,
- Abstract要約: ハッシュセンタに基づくディープハッシュ手法は,各クラスに固定ハッシュセンタを学習対象として割り当てることで,ペアワイズあるいはトリプルトベースのアプローチを改善する。
本稿では,ハッシュ関数を協調最適化しながら,事前に設定したコードブックからハッシュセンタを$textbfdynamicで再割り当てするエンドツーエンドフレームワークを提案する。
3つのベンチマーク実験により、CRHは意味論的に意味のあるハッシュセンターを学習し、検索タスクにおける最先端のディープハッシュ手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 12.994351764190199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hash center-based deep hashing methods improve upon pairwise or triplet-based approaches by assigning fixed hash centers to each class as learning targets, thereby avoiding the inefficiency of local similarity optimization. However, random center initialization often disregards inter-class semantic relationships. While existing two-stage methods mitigate this by first refining hash centers with semantics and then training the hash function, they introduce additional complexity, computational overhead, and suboptimal performance due to stage-wise discrepancies. To address these limitations, we propose $\textbf{Center-Reassigned Hashing (CRH)}$, an end-to-end framework that $\textbf{dynamically reassigns hash centers}$ from a preset codebook while jointly optimizing the hash function. Unlike previous methods, CRH adapts hash centers to the data distribution $\textbf{without explicit center optimization phases}$, enabling seamless integration of semantic relationships into the learning process. Furthermore, $\textbf{a multi-head mechanism}$ enhances the representational capacity of hash centers, capturing richer semantic structures. Extensive experiments on three benchmarks demonstrate that CRH learns semantically meaningful hash centers and outperforms state-of-the-art deep hashing methods in retrieval tasks.
- Abstract(参考訳): ハッシュセンタに基づくディープハッシュ手法は,各クラスに固定ハッシュセンタを学習対象として割り当てることで,ペアワイドあるいはトリプルトベースのアプローチを改善する。
しかし、ランダムセンターの初期化はクラス間のセマンティックな関係を無視することが多い。
既存の2段階の手法では、まずハッシュセンターをセマンティクスで精錬し、その後ハッシュ関数を訓練することでこれを緩和するが、ステージワイドの相違によるさらなる複雑さ、計算オーバーヘッド、準最適性能を導入している。
これらの制限に対処するために、$\textbf{Center-Reassigned Hashing (CRH)}$を提案します。
従来の方法とは異なり、CRHはハッシュセンターをデータ分散に適応させる$\textbf{without explicit center optimization phases}$で、学習プロセスに意味的関係をシームレスに統合することを可能にする。
さらに、$\textbf{a multi-head mechanism}$はハッシュセンターの表現能力を高め、よりリッチなセマンティック構造をキャプチャする。
3つのベンチマークによる大規模な実験により、CRHは意味論的に意味のあるハッシュセンターを学習し、検索タスクにおける最先端のディープハッシュ手法より優れていることが示された。
関連論文リスト
- Mutual Learning for Hashing: Unlocking Strong Hash Functions from Weak Supervision [8.509518175943537]
Mutual Learning for Hashing(MLH)は、より弱いペアワイズベースのブランチから知識を転送することで、中心的なハッシュブランチを強化する弱強フレームワークである。
MLHは、複数のベンチマークデータセット間で、最先端のハッシュメソッドを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-09T02:39:05Z) - Deep Hashing with Semantic Hash Centers for Image Retrieval [15.771584515999283]
本稿では,従来のハッシュセンタの概念に基づくセマンティックハッシュセンタの概念を紹介する。
データ依存的類似性計算を用いてクラス間の意味的類似性を識別する分類ネットワークを開発する。
次に, セマンティック・ハッシュ・センターを生成するアルゴリズムを導入し, セマンティック・ハッシュ・コードに過度に類似しないよう, セマンティック・ハッシュ・センター間の最小距離を保ちながら意味的関連性を維持する。
論文 参考訳(メタデータ) (2025-07-11T08:22:27Z) - A Lower Bound of Hash Codes' Performance [122.88252443695492]
本稿では,ハッシュ符号間のクラス間の差分性とクラス内圧縮性が,ハッシュ符号の性能の低い境界を決定することを証明する。
次に、ハッシュコードの後部を推定し、それを制御することにより、上記の目的を完全に活用する代理モデルを提案し、低バイアス最適化を実現する。
一連のハッシュモデルをテストすることで、平均精度が最大で26.5%、精度が最大で20.5%向上した。
論文 参考訳(メタデータ) (2022-10-12T03:30:56Z) - CgAT: Center-Guided Adversarial Training for Deep Hashing-Based
Retrieval [12.421908811085627]
我々は、深層ハッシュネットワークの繰り返しを改善するために、min-maxベースのCenter-guided Adversarial Training(CgAT)を提案する。
CgATは、ハミング距離を中心符号に最小化することで、敵対的なサンプルの効果を緩和することを学ぶ。
現状の防御法と比較して, 防御性能は平均18.61%向上した。
論文 参考訳(メタデータ) (2022-04-18T04:51:08Z) - Instance-weighted Central Similarity for Multi-label Image Retrieval [66.23348499938278]
ハッシュコードに対応する中心重みを自動的に学習するために,インスタンス重み付き中央類似度(ICS)を提案する。
特にMS COCOデータセットのmAPを1.6%-6.4%改善する。
論文 参考訳(メタデータ) (2021-08-11T15:18:18Z) - Unsupervised Multi-Index Semantic Hashing [23.169142004594434]
マルチインデックスハッシュに最適化することで,効率的かつ高効率なハッシュコードを学習する教師なしハッシュモデルを提案する。
文書類似度検索のタスクにおいて、MISHと最先端のセマンティックハッシュベースラインを実験的に比較する。
マルチインデックスハッシュは、線形スキャンと比較してベースラインの効率も向上しますが、MISHよりも33%遅くなっています。
論文 参考訳(メタデータ) (2021-03-26T13:33:48Z) - Improved Deep Classwise Hashing With Centers Similarity Learning for
Image Retrieval [19.052163348920512]
本論文では,ハッシュ学習とクラスセンター学習を同時に実現する深層型ハッシュ法を提案する。
提案手法は当初の手法を上回り、最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2021-03-17T05:01:13Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - A Survey on Deep Hashing Methods [52.326472103233854]
最寄りの検索は、データベースからクエリまでの距離が最小のサンプルを取得することを目的としている。
ディープラーニングの発展により、ディープハッシュ法は従来の方法よりも多くの利点を示す。
深い教師付きハッシュは、ペアワイズ法、ランキングベースの方法、ポイントワイズ法、量子化に分類される。
深い教師なしハッシュは、類似性再構築に基づく方法、擬似ラベルに基づく方法、予測自由な自己教師あり学習に基づく方法に分類される。
論文 参考訳(メタデータ) (2020-03-04T08:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。