論文の概要: Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings
- arxiv url: http://arxiv.org/abs/2007.13912v1
- Date: Mon, 27 Jul 2020 23:47:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 08:54:43.809049
- Title: Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings
- Title(参考訳): Hash-Consistent Large Margin Proxy Embeddingsを用いたディープハッシュ
- Authors: Pedro Morgado, Yunsheng Li, Jose Costa Pereira, Mohammad Saberian and
Nuno Vasconcelos
- Abstract要約: 画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
- 参考スコア(独自算出の注目度): 65.36757931982469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image hash codes are produced by binarizing the embeddings of convolutional
neural networks (CNN) trained for either classification or retrieval. While
proxy embeddings achieve good performance on both tasks, they are non-trivial
to binarize, due to a rotational ambiguity that encourages non-binary
embeddings. The use of a fixed set of proxies (weights of the CNN
classification layer) is proposed to eliminate this ambiguity, and a procedure
to design proxy sets that are nearly optimal for both classification and
hashing is introduced. The resulting hash-consistent large margin (HCLM)
proxies are shown to encourage saturation of hashing units, thus guaranteeing a
small binarization error, while producing highly discriminative hash-codes. A
semantic extension (sHCLM), aimed to improve hashing performance in a transfer
scenario, is also proposed. Extensive experiments show that sHCLM embeddings
achieve significant improvements over state-of-the-art hashing procedures on
several small and large datasets, both within and beyond the set of training
classes.
- Abstract(参考訳): 画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
プロキシ埋め込みは両方のタスクで優れたパフォーマンスを実現するが、非バイナリ埋め込みを促進する回転曖昧性のため、バイナリ化は自明ではない。
この曖昧さを解消するために、固定されたプロキシセット(CNN分類層の重み)の使用を提案し、分類とハッシュの両方にほぼ最適に近いプロキシセットを設計する手順を紹介した。
その結果,Hash-Consistent large margin (HCLM) プロキシはハッシュ単位の飽和を促進させ,二項化誤差を小さくし,高い識別能を有するハッシュ符号を生成する。
転送シナリオにおけるハッシュ性能向上を目的とした意味拡張(sHCLM)も提案されている。
大規模な実験により、sHCLMの埋め込みは、訓練クラスの内外にあるいくつかの小規模および大規模データセットに対する最先端のハッシュ処理よりも大幅に改善されていることが示されている。
関連論文リスト
- Semantic-Aware Adversarial Training for Reliable Deep Hashing Retrieval [26.17466361744519]
敵対的な例は、ディープハッシュモデルにセキュリティ上の脅威をもたらす。
逆のサンプルのハッシュコードと主スタイ特徴の間のハミング距離を最大化して作られた逆の例。
初めて、深部ハッシュの形式化された対角訓練を統一されたミニマックス構造に定式化する。
論文 参考訳(メタデータ) (2023-10-23T07:21:40Z) - Cascading Hierarchical Networks with Multi-task Balanced Loss for
Fine-grained hashing [1.6244541005112747]
きめ細かいハッシュは従来のハッシュ問題よりも難しい。
本稿では,コンパクトでセマンティックなハッシュコードを学習するためのカスケードネットワークを提案する。
また,マルチタスク学習の損失を協調的にバランスさせる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-20T17:08:48Z) - Deep Asymmetric Hashing with Dual Semantic Regression and Class
Structure Quantization [9.539842235137376]
本稿では,三重制約の下で識別ハッシュを生成する二項意味非対称ハッシュ(DSAH)法を提案する。
これら3つの主要コンポーネントにより、ネットワークを介して高品質なハッシュコードを生成することができる。
論文 参考訳(メタデータ) (2021-10-24T16:14:36Z) - FDDH: Fast Discriminative Discrete Hashing for Large-Scale Cross-Modal
Retrieval [41.125141897096874]
クロスモーダルハッシュはその有効性と効率性に好まれる。
既存のほとんどのメソッドは、ハッシュコードを学ぶ際に意味情報の識別力を十分に利用していない。
大規模クロスモーダル検索のためのFDDH(Fast Discriminative Discrete Hashing)手法を提案する。
論文 参考訳(メタデータ) (2021-05-15T03:53:48Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Reinforcement Learning with Label Embedding Reward for Supervised
Image Hashing [85.84690941656528]
深層型ハッシュのための新しい意思決定手法を提案する。
我々はBose-Chaudhuri-Hocquenghem符号で定義された新しいラベル埋め込み報酬を用いて、深いQ-ネットワークを学ぶ。
我々の手法は、様々なコード長で最先端の教師付きハッシュ法より優れています。
論文 参考訳(メタデータ) (2020-08-10T09:17:20Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。