論文の概要: Deep Class-guided Hashing for Multi-label Cross-modal Retrieval
- arxiv url: http://arxiv.org/abs/2410.15387v1
- Date: Sun, 20 Oct 2024 13:21:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 12:31:05.035129
- Title: Deep Class-guided Hashing for Multi-label Cross-modal Retrieval
- Title(参考訳): マルチラベルクロスモーダル検索のためのディープクラス誘導ハッシュ
- Authors: Hao Chen, Lei Zhu, Xinghui Zhu,
- Abstract要約: 本稿では,クラス内アグリゲーションとクラス間構造関係を両立させるDCGH法を提案する。
3つのベンチマークデータセットの比較実験は、DCGH法が同等またはそれ以上の性能を持つことを示している。
- 参考スコア(独自算出の注目度): 11.522688323040109
- License:
- Abstract: Deep hashing, due to its low cost and efficient retrieval advantages, is widely valued in cross-modal retrieval. However, existing cross-modal hashing methods either explore the relationships between data points, which inevitably leads to intra-class dispersion, or explore the relationships between data points and categories while ignoring the preservation of inter-class structural relationships, resulting in the generation of suboptimal hash codes. How to maintain both intra-class aggregation and inter-class structural relationships, In response to this issue, this paper proposes a DCGH method. Specifically, we use proxy loss as the mainstay to maintain intra-class aggregation of data, combined with pairwise loss to maintain inter-class structural relationships, and on this basis, further propose a variance constraint to address the semantic bias issue caused by the combination. A large number of comparative experiments on three benchmark datasets show that the DCGH method has comparable or even better performance compared to existing cross-modal retrieval methods. The code for the implementation of our DCGH framework is available at https://github.com/donnotnormal/DCGH.
- Abstract(参考訳): ディープハッシュは、低コストで効率的な検索の利点があるため、クロスモーダル検索において広く評価されている。
しかし、既存のクロスモーダルハッシュ法は、必然的にクラス内の分散につながるデータポイント間の関係を探索するか、クラス間の構造的関係の保存を無視しながらデータポイントとカテゴリ間の関係を探索する。
本論では, クラス内凝集とクラス間構造関係の両立を図り, 直流GH法を提案する。
具体的には,データのクラス内アグリゲーションを維持するためにプロキシロスをメインステイとして,クラス間構造関係を維持するためにペアワイズロスと組み合わせ,さらに,この組み合わせによって生じる意味バイアス問題に対処するための分散制約を提案する。
3つのベンチマークデータセットで比較実験を行ったところ、DCGH法は既存のクロスモーダル検索法と同等かそれ以上の性能を示した。
DCGHフレームワークの実装のコードはhttps://github.com/donnotnormal/DCGH.comで公開されています。
関連論文リスト
- Deep Manifold Hashing: A Divide-and-Conquer Approach for Semi-Paired
Unsupervised Cross-Modal Retrieval [44.35575925811005]
クロスモーダルハッシュ法は、多くのラベル付き情報を持つ完全なペアリングされたデータが存在しない場合、通常、モダリティギャップを越えて失敗する。
半ペア型教師なしクロスモーダル検索の問題を3つのサブプロブレムに分割する手法として,Deep Manifold Hashing (DMH)を提案する。
3つのベンチマークによる実験は、最先端の完全対向型および半対向型非教師付きクロスモーダルハッシュ法と比較して、DMHの優位性を示している。
論文 参考訳(メタデータ) (2022-09-26T11:47:34Z) - Deep Asymmetric Hashing with Dual Semantic Regression and Class
Structure Quantization [9.539842235137376]
本稿では,三重制約の下で識別ハッシュを生成する二項意味非対称ハッシュ(DSAH)法を提案する。
これら3つの主要コンポーネントにより、ネットワークを介して高品質なハッシュコードを生成することができる。
論文 参考訳(メタデータ) (2021-10-24T16:14:36Z) - Channel DropBlock: An Improved Regularization Method for Fine-Grained
Visual Classification [58.07257910065007]
既存のアプローチは主に、識別的部分を見つけるための注意機構や、高度にパラメータ化された特徴を弱教師付きで抽出する特徴符号化アプローチを導入することでこの問題に対処している。
本研究では,CDB(Channel DropBlock)と呼ばれる軽量で効果的な正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:03:02Z) - Improved Deep Classwise Hashing With Centers Similarity Learning for
Image Retrieval [19.052163348920512]
本論文では,ハッシュ学習とクラスセンター学習を同時に実現する深層型ハッシュ法を提案する。
提案手法は当初の手法を上回り、最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2021-03-17T05:01:13Z) - Comprehensive Graph-conditional Similarity Preserving Network for
Unsupervised Cross-modal Hashing [97.44152794234405]
教師なしクロスモーダルハッシュ(UCMH)は近年ホットトピックとなっている。
本稿では,dgcpn(deep graph-neighbor coherence preservation network)を考案する。
DGCPNは3種類のデータ類似性を利用して、損失を保存する包括的な類似性を管理する。
論文 参考訳(メタデータ) (2020-12-25T07:40:59Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - Creating Something from Nothing: Unsupervised Knowledge Distillation for
Cross-Modal Hashing [132.22315429623575]
クロスモーダルハッシュ(CMH)は、特に視覚や言語において、異なるモーダルからのコンテンツを同じ空間にマッピングすることができる。
CMHには2つの主要なフレームワークがある。
本稿では,教師なし手法を用いて教師なし手法を導出する手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T08:32:15Z) - Deep Robust Multilevel Semantic Cross-Modal Hashing [25.895586911858857]
ハッシュベースのクロスモーダル検索は、最近大きな進歩を遂げた。
しかし、異なるモダリティからのデータを共同のハミング空間に簡単に埋め込むことは、必然的に偽のコードを生成する。
より正確なクロスモーダル検索のための新しいロバスト多レベルセマンティックハッシュ(RMSH)を提案する。
論文 参考訳(メタデータ) (2020-02-07T10:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。