論文の概要: MOON: Multi-Hash Codes Joint Learning for Cross-Media Retrieval
- arxiv url: http://arxiv.org/abs/2109.00883v1
- Date: Tue, 17 Aug 2021 14:47:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-05 12:04:53.326997
- Title: MOON: Multi-Hash Codes Joint Learning for Cross-Media Retrieval
- Title(参考訳): MOON: クロスメディア検索のためのマルチハッシュコード共同学習
- Authors: Donglin Zhang, Xiao-Jun Wu, He-Feng Yin and Josef Kittler
- Abstract要約: クロスメディアハッシュ技術は高い計算効率と低ストレージコストで注目を集めている。
クロスメディア検索のための新しいMultiple hash cOdes jOint learNing法(MOON)を開発した。
- 参考スコア(独自算出の注目度): 30.77157852327981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, cross-media hashing technique has attracted increasing
attention for its high computation efficiency and low storage cost. However,
the existing approaches still have some limitations, which need to be explored.
1) A fixed hash length (e.g., 16bits or 32bits) is predefined before learning
the binary codes. Therefore, these models need to be retrained when the hash
length changes, that consumes additional computation power, reducing the
scalability in practical applications. 2) Existing cross-modal approaches only
explore the information in the original multimedia data to perform the hash
learning, without exploiting the semantic information contained in the learned
hash codes. To this end, we develop a novel Multiple hash cOdes jOint learNing
method (MOON) for cross-media retrieval. Specifically, the developed MOON
synchronously learns the hash codes with multiple lengths in a unified
framework. Besides, to enhance the underlying discrimination, we combine the
clues from the multimodal data, semantic labels and learned hash codes for hash
learning. As far as we know, the proposed MOON is the first work to
simultaneously learn different length hash codes without retraining in
cross-media retrieval. Experiments on several databases show that our MOON can
achieve promising performance, outperforming some recent competitive shallow
and deep methods.
- Abstract(参考訳): 近年,クロスメディアハッシュ技術は高い計算効率と低ストレージコストに注目が集まっている。
しかし、既存のアプローチにはいくつかの制限があり、検討する必要がある。
1)固定ハッシュ長(例えば16ビットまたは32ビット)はバイナリコードを学習する前に事前に定義する。
したがって、これらのモデルはハッシュの長さが変わったときに再訓練され、計算能力が増し、実用的なアプリケーションでのスケーラビリティが低下する。
2)既存のクロスモーダルアプローチでは,学習したハッシュコードに含まれる意味情報を活用せずに,従来のマルチメディアデータからのみハッシュ学習を行うことができる。
そこで我々は,クロスメディア検索のための新手法であるMultiple hash cOdes jOint learNing法(MOON)を開発した。
具体的には、開発したMOONは、複数の長さのハッシュコードを統一されたフレームワークで同期的に学習する。
さらに,基礎となる識別性を高めるために,マルチモーダルデータや意味ラベル,ハッシュ学習のための学習ハッシュコードからのヒントを組み合わせる。
私たちが知る限り、MOONは、クロスメディア検索で再トレーニングすることなく、異なる長さのハッシュコードを同時に学習する最初の方法である。
いくつかのデータベースで実験した結果、我々の月は有望なパフォーマンスを達成でき、最近の競争の激しい浅層と深層メソッドを上回っています。
関連論文リスト
- Deep Lifelong Cross-modal Hashing [17.278818467305683]
本稿では,ハッシュ関数の再学習を繰り返すのではなく,生涯ハッシュ検索を実現するために,新しい生涯横断ハッシュを提案する。
具体的には、蓄積したすべてのデータを用いて新しいハッシュ関数を再学習する代わりに、インクリメンタルデータを直接訓練することで、ハッシュ関数を更新するための生涯学習戦略を設計する。
検索精度は20%以上で、新しいデータが連続してやってくると、ほぼ80%以上のトレーニング時間を短縮する。
論文 参考訳(メタデータ) (2023-04-26T07:56:22Z) - A Lower Bound of Hash Codes' Performance [122.88252443695492]
本稿では,ハッシュ符号間のクラス間の差分性とクラス内圧縮性が,ハッシュ符号の性能の低い境界を決定することを証明する。
次に、ハッシュコードの後部を推定し、それを制御することにより、上記の目的を完全に活用する代理モデルを提案し、低バイアス最適化を実現する。
一連のハッシュモデルをテストすることで、平均精度が最大で26.5%、精度が最大で20.5%向上した。
論文 参考訳(メタデータ) (2022-10-12T03:30:56Z) - Efficient Cross-Modal Retrieval via Deep Binary Hashing and Quantization [5.799838997511804]
クロスモーダル検索は、異なるコンテンツモダリティにまたがる類似の意味を持つデータを検索することを目的としている。
クロスモーダル検索のための共同学習型ディープハッシュ・量子化ネットワーク(HQ)を提案する。
NUS-WIDE、MIR-Flickr、Amazonデータセットの実験結果は、HQの精度が7%以上向上していることを示している。
論文 参考訳(メタデータ) (2022-02-15T22:00:04Z) - One Loss for All: Deep Hashing with a Single Cosine Similarity based
Learning Objective [86.48094395282546]
ディープハッシュモデルは通常、学習されたバイナリハッシュコードの識別と量子化エラーの最小化という2つの学習目標を持つ。
本稿では,1つの学習目的しか持たない新しい深層ハッシュモデルを提案する。
我々のモデルは,3つの大規模インスタンス検索ベンチマークにおいて,最先端のマルチロスハッシュモデルより優れている。
論文 参考訳(メタデータ) (2021-09-29T14:27:51Z) - Unsupervised Multi-Index Semantic Hashing [23.169142004594434]
マルチインデックスハッシュに最適化することで,効率的かつ高効率なハッシュコードを学習する教師なしハッシュモデルを提案する。
文書類似度検索のタスクにおいて、MISHと最先端のセマンティックハッシュベースラインを実験的に比較する。
マルチインデックスハッシュは、線形スキャンと比較してベースラインの効率も向上しますが、MISHよりも33%遅くなっています。
論文 参考訳(メタデータ) (2021-03-26T13:33:48Z) - Deep Cross-modal Hashing via Margin-dynamic-softmax Loss [39.663995702994725]
We propose a novel cross-modal hashing, called Deep cross-modal hashing via textitMargin-dynamic-softmax Loss (DCHML)。
まず、DCHMLはプロキシハッシュネットワークをトレーニングし、データセットの各カテゴリ情報をセマンティック識別ハッシュコードに変換する。
次に、モダリティ固有のハッシュネットワークのトレーニングプロセスを監督するデータポイント間の類似性を定義することなく、新しいテクスティマージン-ダイナミック-ソフトマックス損失を提案する。
論文 参考訳(メタデータ) (2020-11-06T16:02:35Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Reinforcement Learning with Label Embedding Reward for Supervised
Image Hashing [85.84690941656528]
深層型ハッシュのための新しい意思決定手法を提案する。
我々はBose-Chaudhuri-Hocquenghem符号で定義された新しいラベル埋め込み報酬を用いて、深いQ-ネットワークを学ぶ。
我々の手法は、様々なコード長で最先端の教師付きハッシュ法より優れています。
論文 参考訳(メタデータ) (2020-08-10T09:17:20Z) - Unsupervised Deep Cross-modality Spectral Hashing [65.3842441716661]
このフレームワークは、最適化をバイナリ最適化とハッシュ関数学習に分離する2段階のハッシュアプローチである。
本稿では,単一モダリティと二項相互モダリティを同時に学習するスペクトル埋め込みに基づく新しいアルゴリズムを提案する。
我々は、画像に強力なCNNを活用し、テキストモダリティを学ぶためのCNNベースのディープアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-08-01T09:20:11Z) - A Survey on Deep Hashing Methods [52.326472103233854]
最寄りの検索は、データベースからクエリまでの距離が最小のサンプルを取得することを目的としている。
ディープラーニングの発展により、ディープハッシュ法は従来の方法よりも多くの利点を示す。
深い教師付きハッシュは、ペアワイズ法、ランキングベースの方法、ポイントワイズ法、量子化に分類される。
深い教師なしハッシュは、類似性再構築に基づく方法、擬似ラベルに基づく方法、予測自由な自己教師あり学習に基づく方法に分類される。
論文 参考訳(メタデータ) (2020-03-04T08:25:15Z) - A Novel Incremental Cross-Modal Hashing Approach [21.99741793652628]
我々は「iCMH」と呼ばれる新しい漸進的クロスモーダルハッシュアルゴリズムを提案する。
提案手法は,ハッシュコードを学習し,ハッシュ関数を訓練する2つの段階からなる。
さまざまなクロスモーダルデータセットの実験と最先端のクロスモーダルアルゴリズムとの比較は、我々のアプローチの有用性を示している。
論文 参考訳(メタデータ) (2020-02-03T12:34:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。