論文の概要: Task-adaptive Asymmetric Deep Cross-modal Hashing
- arxiv url: http://arxiv.org/abs/2004.00197v2
- Date: Mon, 21 Mar 2022 08:29:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:32:42.279717
- Title: Task-adaptive Asymmetric Deep Cross-modal Hashing
- Title(参考訳): タスク適応型非対称クロスモーダルハッシュ
- Authors: Fengling Li, Tong Wang, Lei Zhu, Zheng Zhang, Xinhua Wang
- Abstract要約: クロスモーダルハッシュは、異質なモダリティデータのセマンティックな相関関係を、識別的なセマンティックラベルを持つバイナリハッシュコードに埋め込むことを目的としている。
本稿では,タスク適応型非対称ディープクロスモーダルハッシュ(TA-ADCMH)法を提案する。
同時モーダル表現と非対称ハッシュ学習により,2つのサブ検索タスクに対するタスク適応型ハッシュ関数を学習することができる。
- 参考スコア(独自算出の注目度): 20.399984971442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised cross-modal hashing aims to embed the semantic correlations of
heterogeneous modality data into the binary hash codes with discriminative
semantic labels. Because of its advantages on retrieval and storage efficiency,
it is widely used for solving efficient cross-modal retrieval. However,
existing researches equally handle the different tasks of cross-modal
retrieval, and simply learn the same couple of hash functions in a symmetric
way for them. Under such circumstance, the uniqueness of different cross-modal
retrieval tasks are ignored and sub-optimal performance may be brought.
Motivated by this, we present a Task-adaptive Asymmetric Deep Cross-modal
Hashing (TA-ADCMH) method in this paper. It can learn task-adaptive hash
functions for two sub-retrieval tasks via simultaneous modality representation
and asymmetric hash learning. Unlike previous cross-modal hashing approaches,
our learning framework jointly optimizes semantic preserving that transforms
deep features of multimedia data into binary hash codes, and the semantic
regression which directly regresses query modality representation to explicit
label. With our model, the binary codes can effectively preserve semantic
correlations across different modalities, meanwhile, adaptively capture the
query semantics. The superiority of TA-ADCMH is proved on two standard datasets
from many aspects.
- Abstract(参考訳): supervised cross-modal hashingは、異種モダリティデータのセマンティクス相関を、識別的なセマンティクスラベルを持つバイナリハッシュコードに組み込むことを目的としている。
検索とストレージ効率の利点から、効率的なクロスモーダル検索の解法として広く利用されている。
しかし、既存の研究はクロスモーダル検索の異なるタスクを同じように処理し、同じハッシュ関数を対称的に学習するだけである。
このような状況下において、異なるクロスモーダル検索タスクのユニークさを無視し、サブ最適性能をもたらすことができる。
そこで本論文では,タスク適応型非対称ディープクロスモーダルハッシュ法(TA-ADCMH)を提案する。
同時モダリティ表現と非対称ハッシュ学習を通じて、2つのサブリトライバルタスクのタスク適応ハッシュ関数を学習することができる。
従来のクロスモーダルハッシュ手法とは異なり、我々の学習フレームワークは、マルチメディアデータの深い特徴をバイナリハッシュコードに変換するセマンティック保存と、クエリのモダリティ表現を直接明示的なラベルに変換するセマンティック回帰を共同で最適化する。
我々のモデルでは、バイナリコードは異なるモダリティ間のセマンティックな相関を効果的に保ちつつ、クエリのセマンティクスを適応的にキャプチャすることができる。
TA-ADCMHの優位性は多くの点で2つの標準データセットで証明されている。
関連論文リスト
- GSSF: Generalized Structural Sparse Function for Deep Cross-modal Metric Learning [51.677086019209554]
ペアワイド類似性学習のためのモダリティ間の強力な関係を捕捉する汎用構造スパースを提案する。
距離メートル法は、対角線とブロック対角線の2つの形式を微妙にカプセル化する。
クロスモーダルと2つの余分なユニモーダル検索タスクの実験は、その優位性と柔軟性を検証した。
論文 参考訳(メタデータ) (2024-10-20T03:45:50Z) - RREH: Reconstruction Relations Embedded Hashing for Semi-Paired Cross-Modal Retrieval [32.06421737874828]
Restructation Relations Embedded Hashing (RREH) は、半ペア型クロスモーダル検索タスク用に設計されている。
RREHはマルチモーダルデータが共通の部分空間を共有すると仮定する。
アンカーはペアのデータからサンプリングされ ハッシュ学習の効率が向上します
論文 参考訳(メタデータ) (2024-05-28T03:12:54Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - Unsupervised Contrastive Hashing for Cross-Modal Retrieval in Remote
Sensing [1.6758573326215689]
クロスモーダルテキスト画像検索はリモートセンシングにおいて大きな注目を集めている。
RSにおけるテキスト画像検索のための新しい教師なしクロスモーダルコントラストハッシュ法(DUCH)を提案する。
実験結果から,提案するDUCHは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-19T07:25:25Z) - Efficient Cross-Modal Retrieval via Deep Binary Hashing and Quantization [5.799838997511804]
クロスモーダル検索は、異なるコンテンツモダリティにまたがる類似の意味を持つデータを検索することを目的としている。
クロスモーダル検索のための共同学習型ディープハッシュ・量子化ネットワーク(HQ)を提案する。
NUS-WIDE、MIR-Flickr、Amazonデータセットの実験結果は、HQの精度が7%以上向上していることを示している。
論文 参考訳(メタデータ) (2022-02-15T22:00:04Z) - Multi-Modal Mutual Information Maximization: A Novel Approach for
Unsupervised Deep Cross-Modal Hashing [73.29587731448345]
我々はCross-Modal Info-Max Hashing (CMIMH)と呼ばれる新しい手法を提案する。
モーダル内およびモーダル間の類似性を両立できる情報表現を学習する。
提案手法は、他の最先端のクロスモーダル検索手法よりも一貫して優れている。
論文 参考訳(メタデータ) (2021-12-13T08:58:03Z) - FDDH: Fast Discriminative Discrete Hashing for Large-Scale Cross-Modal
Retrieval [41.125141897096874]
クロスモーダルハッシュはその有効性と効率性に好まれる。
既存のほとんどのメソッドは、ハッシュコードを学ぶ際に意味情報の識別力を十分に利用していない。
大規模クロスモーダル検索のためのFDDH(Fast Discriminative Discrete Hashing)手法を提案する。
論文 参考訳(メタデータ) (2021-05-15T03:53:48Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Unsupervised Deep Cross-modality Spectral Hashing [65.3842441716661]
このフレームワークは、最適化をバイナリ最適化とハッシュ関数学習に分離する2段階のハッシュアプローチである。
本稿では,単一モダリティと二項相互モダリティを同時に学習するスペクトル埋め込みに基づく新しいアルゴリズムを提案する。
我々は、画像に強力なCNNを活用し、テキストモダリティを学ぶためのCNNベースのディープアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-08-01T09:20:11Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Deep Robust Multilevel Semantic Cross-Modal Hashing [25.895586911858857]
ハッシュベースのクロスモーダル検索は、最近大きな進歩を遂げた。
しかし、異なるモダリティからのデータを共同のハミング空間に簡単に埋め込むことは、必然的に偽のコードを生成する。
より正確なクロスモーダル検索のための新しいロバスト多レベルセマンティックハッシュ(RMSH)を提案する。
論文 参考訳(メタデータ) (2020-02-07T10:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。