論文の概要: Deep Cross-modal Hashing via Margin-dynamic-softmax Loss
- arxiv url: http://arxiv.org/abs/2011.03451v2
- Date: Tue, 18 May 2021 15:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 05:43:26.461227
- Title: Deep Cross-modal Hashing via Margin-dynamic-softmax Loss
- Title(参考訳): Margin-dynamic-softmax Lossによる深いクロスモーダルハッシュ
- Authors: Rong-Cheng Tu, Xian-Ling Mao, Rongxin Tu, Binbin Bian, Wei Wei, Heyan
Huang
- Abstract要約: We propose a novel cross-modal hashing, called Deep cross-modal hashing via textitMargin-dynamic-softmax Loss (DCHML)。
まず、DCHMLはプロキシハッシュネットワークをトレーニングし、データセットの各カテゴリ情報をセマンティック識別ハッシュコードに変換する。
次に、モダリティ固有のハッシュネットワークのトレーニングプロセスを監督するデータポイント間の類似性を定義することなく、新しいテクスティマージン-ダイナミック-ソフトマックス損失を提案する。
- 参考スコア(独自算出の注目度): 39.663995702994725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to their high retrieval efficiency and low storage cost for cross-modal
search task, cross-modal hashing methods have attracted considerable attention.
For the supervised cross-modal hashing methods, how to make the learned hash
codes preserve semantic information sufficiently contained in the label of
datapoints is the key to further enhance the retrieval performance. Hence,
almost all supervised cross-modal hashing methods usually depends on defining a
similarity between datapoints with the label information to guide the hashing
model learning fully or partly. However, the defined similarity between
datapoints can only capture the label information of datapoints partially and
misses abundant semantic information, then hinders the further improvement of
retrieval performance. Thus, in this paper, different from previous works, we
propose a novel cross-modal hashing method without defining the similarity
between datapoints, called Deep Cross-modal Hashing via
\textit{Margin-dynamic-softmax Loss} (DCHML). Specifically, DCHML first trains
a proxy hashing network to transform each category information of a dataset
into a semantic discriminative hash code, called proxy hash code. Each proxy
hash code can preserve the semantic information of its corresponding category
well. Next, without defining the similarity between datapoints to supervise the
training process of the modality-specific hashing networks , we propose a novel
\textit{margin-dynamic-softmax loss} to directly utilize the proxy hashing
codes as supervised information. Finally, by minimizing the novel
\textit{margin-dynamic-softmax loss}, the modality-specific hashing networks
can be trained to generate hash codes which can simultaneously preserve the
cross-modal similarity and abundant semantic information well.
- Abstract(参考訳): クロスモーダル検索作業における高い検索効率と低ストレージコストのため,クロスモーダルハッシュ法が注目されている。
教師付きクロスモーダルハッシュ法では,データポイントのラベルに十分に含まれている意味情報を学習ハッシュコードに保存させる方法が検索性能向上の鍵となる。
したがって、ほとんど全ての教師付きクロスモーダルハッシュ手法は、通常、ハッシュモデルの学習を完全にまたは部分的に導くためにラベル情報を持つデータポイント間の類似性を定義することに依存する。
しかし、データポイント間の定義された類似性は、部分的にデータポイントのラベル情報を取り込み、豊富な意味情報を見逃し、検索性能のさらなる向上を妨げる。
そこで,本研究では,データポイント間の類似性を定義せずに,新しいクロスモーダルハッシュ法を提案し,それをDCHML(textit{Margin-dynamic-softmax Loss})と呼ぶ。
具体的には、dchmlはまずプロキシハッシュネットワークを訓練し、データセットの各カテゴリ情報をプロキシハッシュコードと呼ばれるセマンティック識別ハッシュコードに変換する。
各プロキシハッシュコードは、対応するカテゴリのセマンティック情報を適切に保存することができる。
次に、モダリティ固有のハッシュネットワークのトレーニングプロセスを監督するためにデータポイント間の類似性を定義することなく、プロキシハッシュコードを教師付き情報として直接利用する新しい \textit{margin-dynamic-softmax loss} を提案する。
最後に、新しい \textit{margin-dynamic-softmax loss} を最小化することで、モダリティ固有のハッシュネットワークを訓練して、クロスモーダル類似性と豊富な意味情報を同時に保存できるハッシュコードを生成することができる。
関連論文リスト
- Deep Asymmetric Hashing with Dual Semantic Regression and Class
Structure Quantization [9.539842235137376]
本稿では,三重制約の下で識別ハッシュを生成する二項意味非対称ハッシュ(DSAH)法を提案する。
これら3つの主要コンポーネントにより、ネットワークを介して高品質なハッシュコードを生成することができる。
論文 参考訳(メタデータ) (2021-10-24T16:14:36Z) - MOON: Multi-Hash Codes Joint Learning for Cross-Media Retrieval [30.77157852327981]
クロスメディアハッシュ技術は高い計算効率と低ストレージコストで注目を集めている。
クロスメディア検索のための新しいMultiple hash cOdes jOint learNing法(MOON)を開発した。
論文 参考訳(メタデータ) (2021-08-17T14:47:47Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Momentum Uncertainty Hashing [65.27971340060687]
我々は,新しいDeep Momentum Uncertainity Hashing (DMUH)を提案する。
トレーニング中の不確実性を明示的に推定し、不確実性情報を利用して近似過程を導出する。
提案手法は,すべてのデータセット上で最高の性能を達成し,既存の最先端手法を大きなマージンで超越する。
論文 参考訳(メタデータ) (2020-09-17T01:57:45Z) - Unsupervised Deep Cross-modality Spectral Hashing [65.3842441716661]
このフレームワークは、最適化をバイナリ最適化とハッシュ関数学習に分離する2段階のハッシュアプローチである。
本稿では,単一モダリティと二項相互モダリティを同時に学習するスペクトル埋め込みに基づく新しいアルゴリズムを提案する。
我々は、画像に強力なCNNを活用し、テキストモダリティを学ぶためのCNNベースのディープアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-08-01T09:20:11Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - Task-adaptive Asymmetric Deep Cross-modal Hashing [20.399984971442]
クロスモーダルハッシュは、異質なモダリティデータのセマンティックな相関関係を、識別的なセマンティックラベルを持つバイナリハッシュコードに埋め込むことを目的としている。
本稿では,タスク適応型非対称ディープクロスモーダルハッシュ(TA-ADCMH)法を提案する。
同時モーダル表現と非対称ハッシュ学習により,2つのサブ検索タスクに対するタスク適応型ハッシュ関数を学習することができる。
論文 参考訳(メタデータ) (2020-04-01T02:09:20Z) - A Survey on Deep Hashing Methods [52.326472103233854]
最寄りの検索は、データベースからクエリまでの距離が最小のサンプルを取得することを目的としている。
ディープラーニングの発展により、ディープハッシュ法は従来の方法よりも多くの利点を示す。
深い教師付きハッシュは、ペアワイズ法、ランキングベースの方法、ポイントワイズ法、量子化に分類される。
深い教師なしハッシュは、類似性再構築に基づく方法、擬似ラベルに基づく方法、予測自由な自己教師あり学習に基づく方法に分類される。
論文 参考訳(メタデータ) (2020-03-04T08:25:15Z) - Deep Robust Multilevel Semantic Cross-Modal Hashing [25.895586911858857]
ハッシュベースのクロスモーダル検索は、最近大きな進歩を遂げた。
しかし、異なるモダリティからのデータを共同のハミング空間に簡単に埋め込むことは、必然的に偽のコードを生成する。
より正確なクロスモーダル検索のための新しいロバスト多レベルセマンティックハッシュ(RMSH)を提案する。
論文 参考訳(メタデータ) (2020-02-07T10:08:21Z) - A Novel Incremental Cross-Modal Hashing Approach [21.99741793652628]
我々は「iCMH」と呼ばれる新しい漸進的クロスモーダルハッシュアルゴリズムを提案する。
提案手法は,ハッシュコードを学習し,ハッシュ関数を訓練する2つの段階からなる。
さまざまなクロスモーダルデータセットの実験と最先端のクロスモーダルアルゴリズムとの比較は、我々のアプローチの有用性を示している。
論文 参考訳(メタデータ) (2020-02-03T12:34:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。