論文の概要: UniHash: Unifying Pointwise and Pairwise Hashing Paradigms for Seen and Unseen Category Retrieval
- arxiv url: http://arxiv.org/abs/2601.09828v1
- Date: Wed, 14 Jan 2026 19:43:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.875638
- Title: UniHash: Unifying Pointwise and Pairwise Hashing Paradigms for Seen and Unseen Category Retrieval
- Title(参考訳): UniHash: カテゴリー検索におけるポイントワイドとペアワイドのハッシュパラダイムの統合
- Authors: Xiaoxu Ma, Runhao Li, Hanwen Liu, Xiangbo Zhang, Zhenyu Weng,
- Abstract要約: 本稿では,統一ハッシュ(UniHash)を提案する。
UniHashは2つの相補的なブランチで構成されている: ポイントワイドパラダイムに従うセンターベースのブランチとペアワイドパラダイムに従うペアワイドブランチである。
分岐間の双方向の知識伝達を可能にし、ハッシュコードの識別性と一般化を改善するため、新しいハッシュコード学習法が導入された。
- 参考スコア(独自算出の注目度): 10.770071530219246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective retrieval across both seen and unseen categories is crucial for modern image retrieval systems. Retrieval on seen categories ensures precise recognition of known classes, while retrieval on unseen categories promotes generalization to novel classes with limited supervision. However, most existing deep hashing methods are confined to a single training paradigm, either pointwise or pairwise, where the former excels on seen categories and the latter generalizes better to unseen ones. To overcome this limitation, we propose Unified Hashing (UniHash), a dual-branch framework that unifies the strengths of both paradigms to achieve balanced retrieval performance across seen and unseen categories. UniHash consists of two complementary branches: a center-based branch following the pointwise paradigm and a pairwise branch following the pairwise paradigm. A novel hash code learning method is introduced to enable bidirectional knowledge transfer between branches, improving hash code discriminability and generalization. It employs a mutual learning loss to align hash representations and introduces a Split-Merge Mixture of Hash Experts (SM-MoH) module to enhance cross-branch exchange of hash representations. Theoretical analysis substantiates the effectiveness of UniHash, and extensive experiments on CIFAR-10, MSCOCO, and ImageNet demonstrate that UniHash consistently achieves state-of-the-art performance in both seen and unseen image retrieval scenarios.
- Abstract(参考訳): 画像検索システムにおいては,画像検索と画像検索の両分野において有効な検索が不可欠である。
目に見えるカテゴリーの検索は、既知のクラスを正確に認識することを保証する一方で、目に見えないカテゴリの検索は、監督が限定された新しいクラスへの一般化を促進する。
しかし、既存のディープハッシュ手法のほとんどは、ポイントワイドまたはペアワイドの1つのトレーニングパラダイムに限られており、前者は目に見えないカテゴリに排他的であり、後者は見当たらないものよりも一般化されている。
この制限を克服するために、両パラダイムの長所を統一し、見知らぬカテゴリ間でバランスの取れた検索性能を実現するための、Unified Hashing(UniHash)を提案する。
UniHashは2つの相補的なブランチで構成されている: ポイントワイドパラダイムに従うセンターベースのブランチとペアワイドパラダイムに従うペアワイドブランチである。
分岐間の双方向の知識伝達を可能にし、ハッシュコードの識別性と一般化を改善するため、新しいハッシュコード学習法が導入された。
ハッシュ表現を整合させるために相互学習損失を採用し、ハッシュ表現のクロスブランチ交換を強化するために、SM-MoH(Split-Merge Mixture of Hash Experts)モジュールを導入した。
理論的解析は、UniHashの有効性を実証し、CIFAR-10、MSCOCO、ImageNetでの広範な実験により、UniHashは、目に見える画像と見えない画像の検索シナリオの両方において、常に最先端のパフォーマンスを達成することを示した。
関連論文リスト
- Mutual Learning for Hashing: Unlocking Strong Hash Functions from Weak Supervision [8.509518175943537]
Mutual Learning for Hashing(MLH)は、より弱いペアワイズベースのブランチから知識を転送することで、中心的なハッシュブランチを強化する弱強フレームワークである。
MLHは、複数のベンチマークデータセット間で、最先端のハッシュメソッドを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-09T02:39:05Z) - Hashing-Baseline: Rethinking Hashing in the Age of Pretrained Models [4.531902882476647]
本稿では,Hash-Baselineについて紹介する。Hash-Baselineは強力な事前学習型エンコーダを利用して,豊富な事前学習型埋め込みを生成する。
提案手法は,最先端の視覚とオーディオエンコーダの凍結埋め込みと組み合わせて,さらなる学習や微調整を行うことなく,競争力のある検索性能を得る。
論文 参考訳(メタデータ) (2025-09-17T20:58:43Z) - Deep Hashing with Semantic Hash Centers for Image Retrieval [15.771584515999283]
本稿では,従来のハッシュセンタの概念に基づくセマンティックハッシュセンタの概念を紹介する。
データ依存的類似性計算を用いてクラス間の意味的類似性を識別する分類ネットワークを開発する。
次に, セマンティック・ハッシュ・センターを生成するアルゴリズムを導入し, セマンティック・ハッシュ・コードに過度に類似しないよう, セマンティック・ハッシュ・センター間の最小距離を保ちながら意味的関連性を維持する。
論文 参考訳(メタデータ) (2025-07-11T08:22:27Z) - Learning to Hash for Recommendation: A Survey [49.943390288789494]
このサーベイは、最先端のHashRecアルゴリズムの概要を提供する。
既存の研究を,(i)学習目標,(ii)最適化戦略,(iii)推薦シナリオに基づく3段階の分類に分類する。
論文 参考訳(メタデータ) (2024-12-05T05:07:19Z) - Prototypical Hash Encoding for On-the-Fly Fine-Grained Category Discovery [65.16724941038052]
カテゴリ対応プロトタイプ生成(CPG)とディスクリミカテゴリ5.3%(DCE)が提案されている。
CPGは、各カテゴリを複数のプロトタイプで表現することで、カテゴリ内の多様性を完全にキャプチャすることを可能にする。
DCEは生成されたカテゴリプロトタイプのガイダンスによってハッシュコードの識別能力を向上する。
論文 参考訳(メタデータ) (2024-10-24T23:51:40Z) - ConceptHash: Interpretable Fine-Grained Hashing via Concept Discovery [128.30514851911218]
ConceptHashは、サブコードレベルの解釈性を実現する新しい方法である。
ConceptHashでは、各サブコードは、オブジェクト部分のような人間の理解可能な概念に対応する。
学習したハッシュコードが、きめ細かいオブジェクトクラス内で識別可能であることを保証するために、言語ガイダンスを組み込んだ。
論文 参考訳(メタデータ) (2024-06-12T17:49:26Z) - CoopHash: Cooperative Learning of Multipurpose Descriptor and Contrastive Pair Generator via Variational MCMC Teaching for Supervised Image Hashing [42.67510119856105]
GAN(Generative Adversarial Networks)のような生成モデルは、画像ハッシュモデルで合成データを生成することができる。
GANは訓練が難しいため、ハッシュアプローチが生成モデルとハッシュ関数を共同で訓練するのを防ぐことができる。
本稿では,エネルギーをベースとした協調学習に基づく新しい協調ハッシュネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-09T15:42:36Z) - Deep Asymmetric Hashing with Dual Semantic Regression and Class
Structure Quantization [9.539842235137376]
本稿では,三重制約の下で識別ハッシュを生成する二項意味非対称ハッシュ(DSAH)法を提案する。
これら3つの主要コンポーネントにより、ネットワークを介して高品質なハッシュコードを生成することができる。
論文 参考訳(メタデータ) (2021-10-24T16:14:36Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。