論文の概要: FDDH: Fast Discriminative Discrete Hashing for Large-Scale Cross-Modal
Retrieval
- arxiv url: http://arxiv.org/abs/2105.07128v1
- Date: Sat, 15 May 2021 03:53:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 13:38:32.122106
- Title: FDDH: Fast Discriminative Discrete Hashing for Large-Scale Cross-Modal
Retrieval
- Title(参考訳): FDDH:大規模クロスモーダル検索のための高速識別離散ハッシュ
- Authors: Xin Liu, Xingzhi Wang and Yiu-ming Cheung
- Abstract要約: クロスモーダルハッシュはその有効性と効率性に好まれる。
既存のほとんどのメソッドは、ハッシュコードを学ぶ際に意味情報の識別力を十分に利用していない。
大規模クロスモーダル検索のためのFDDH(Fast Discriminative Discrete Hashing)手法を提案する。
- 参考スコア(独自算出の注目度): 41.125141897096874
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Cross-modal hashing, favored for its effectiveness and efficiency, has
received wide attention to facilitating efficient retrieval across different
modalities. Nevertheless, most existing methods do not sufficiently exploit the
discriminative power of semantic information when learning the hash codes,
while often involving time-consuming training procedure for handling the
large-scale dataset. To tackle these issues, we formulate the learning of
similarity-preserving hash codes in terms of orthogonally rotating the semantic
data so as to minimize the quantization loss of mapping such data to hamming
space, and propose an efficient Fast Discriminative Discrete Hashing (FDDH)
approach for large-scale cross-modal retrieval. More specifically, FDDH
introduces an orthogonal basis to regress the targeted hash codes of training
examples to their corresponding semantic labels, and utilizes "-dragging
technique to provide provable large semantic margins. Accordingly, the
discriminative power of semantic information can be explicitly captured and
maximized. Moreover, an orthogonal transformation scheme is further proposed to
map the nonlinear embedding data into the semantic subspace, which can well
guarantee the semantic consistency between the data feature and its semantic
representation. Consequently, an efficient closed form solution is derived for
discriminative hash code learning, which is very computationally efficient. In
addition, an effective and stable online learning strategy is presented for
optimizing modality-specific projection functions, featuring adaptivity to
different training sizes and streaming data. The proposed FDDH approach
theoretically approximates the bi-Lipschitz continuity, runs sufficiently fast,
and also significantly improves the retrieval performance over the
state-of-the-art methods. The source code is released at:
https://github.com/starxliu/FDDH.
- Abstract(参考訳): クロスモーダルハッシュは、その有効性と効率性に好まれ、様々なモダリティの効率的な検索を容易にするために広く注目を集めている。
しかしながら、既存の手法の多くは、ハッシュコードを学ぶ際に意味情報の識別能力を十分に活用していないが、大規模データセットを扱うための時間を要するトレーニング手順がしばしば含まれている。
これらの問題に対処するため, 意味データを直交回転させることで類似性保存ハッシュコードの学習を定式化し, ハムミング空間へのマッピングの量子化損失を最小限に抑えるとともに, 大規模クロスモーダル検索のための高速識別離散ハッシュ法(FDDH)を提案する。
より具体的には、fddhはトレーニング例のターゲットのハッシュコードを対応する意味ラベルに回帰させる直交基底を導入し、"-dragging technique"を使用して大きな意味マージンを提供する。
これにより、意味情報の判別能力を明示的に捉えて最大化することができる。
さらに、非線形埋め込みデータをセマンティック部分空間にマッピングする直交変換方式が提案され、データ特徴とセマンティック表現とのセマンティック一貫性を十分に保証することができる。
これにより、非常に計算効率のよい識別的ハッシュ符号学習のために効率的なクローズドフォーム解が導出される。
さらに、異なるトレーニングサイズとストリーミングデータへの適応性を特徴とする、モダリティ特有の投影関数を最適化するための、効果的で安定したオンライン学習戦略も提示する。
提案手法は理論的にバイリプシッツ連続性を近似し,十分に高速に動作し,最先端手法による検索性能を大幅に向上させる。
ソースコードはhttps://github.com/starxliu/fddh。
関連論文リスト
- Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - Deep Asymmetric Hashing with Dual Semantic Regression and Class
Structure Quantization [9.539842235137376]
本稿では,三重制約の下で識別ハッシュを生成する二項意味非対称ハッシュ(DSAH)法を提案する。
これら3つの主要コンポーネントにより、ネットワークを介して高品質なハッシュコードを生成することができる。
論文 参考訳(メタデータ) (2021-10-24T16:14:36Z) - Self-supervised asymmetric deep hashing with margin-scalable constraint
for image retrieval [3.611160663701664]
画像検索のためのマージンスケール可能な制約(SADH)アプローチを備えた,新しい自己監視型非対称深ハッシュ法を提案する。
sadhは自己教師付きネットワークを実装し、セマンティック特徴マップに意味情報を保存し、与えられたデータセットのセマンティクスを意味コードマップに格納する。
特徴学習部では、ハミング空間におけるペア関係の高精度な構築とより識別的なハッシュコード表現の両方に、新たなマージンスケータブル制約を用いる。
論文 参考訳(メタデータ) (2020-12-07T16:09:37Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Making Online Sketching Hashing Even Faster [63.16042585506435]
本稿では,FROSH(FasteR Online Sketching Hashing)アルゴリズムを提案する。
提案したFROSHがより少ない時間を消費し、同等のスケッチ精度を実現することを保証するための理論的正当性を提供する。
また、FROSHの分散実装であるDFROSHを拡張して、FROSHのトレーニング時間コストをさらに削減する。
論文 参考訳(メタデータ) (2020-10-10T08:50:53Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - Task-adaptive Asymmetric Deep Cross-modal Hashing [20.399984971442]
クロスモーダルハッシュは、異質なモダリティデータのセマンティックな相関関係を、識別的なセマンティックラベルを持つバイナリハッシュコードに埋め込むことを目的としている。
本稿では,タスク適応型非対称ディープクロスモーダルハッシュ(TA-ADCMH)法を提案する。
同時モーダル表現と非対称ハッシュ学習により,2つのサブ検索タスクに対するタスク適応型ハッシュ関数を学習することができる。
論文 参考訳(メタデータ) (2020-04-01T02:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。