論文の概要: Deep Unsupervised Hashing by Distilled Smooth Guidance
- arxiv url: http://arxiv.org/abs/2105.06125v1
- Date: Thu, 13 May 2021 07:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 22:32:57.841553
- Title: Deep Unsupervised Hashing by Distilled Smooth Guidance
- Title(参考訳): 蒸留スムースガイダンスによる深層無監督ハッシュ
- Authors: Xiao Luo, Zeyu Ma, Daqing Wu, Huasong Zhong, Chong Chen, Jinwen Ma,
Minghua Deng
- Abstract要約: DSG (Distilled Smooth Guidance) という,新しい深部教師なしハッシュ法を提案する。
具体的には,局所構造から得られた雑音的類似性信号に基づいて,類似度信頼度を求める。
広く使用されている3つのベンチマークデータセットに関する広範な実験は、提案されたDSGが常に最先端の検索方法を上回ることを示しています。
- 参考スコア(独自算出の注目度): 13.101031440853843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hashing has been widely used in approximate nearest neighbor search for its
storage and computational efficiency. Deep supervised hashing methods are not
widely used because of the lack of labeled data, especially when the domain is
transferred. Meanwhile, unsupervised deep hashing models can hardly achieve
satisfactory performance due to the lack of reliable similarity signals. To
tackle this problem, we propose a novel deep unsupervised hashing method,
namely Distilled Smooth Guidance (DSG), which can learn a distilled dataset
consisting of similarity signals as well as smooth confidence signals. To be
specific, we obtain the similarity confidence weights based on the initial
noisy similarity signals learned from local structures and construct a priority
loss function for smooth similarity-preserving learning. Besides, global
information based on clustering is utilized to distill the image pairs by
removing contradictory similarity signals. Extensive experiments on three
widely used benchmark datasets show that the proposed DSG consistently
outperforms the state-of-the-art search methods.
- Abstract(参考訳): ハッシュ処理は、そのストレージと計算効率のほぼ近傍の探索に広く使われている。
深い教師付きハッシュ手法はラベル付きデータの欠如、特にドメインが転送された場合にはあまり使われない。
一方、教師なしのディープハッシュモデルは、信頼できる類似性信号がないため、十分な性能を達成できない。
そこで本研究では,類似性信号とスムーズな信頼性信号からなる蒸留データセットを学習可能な,新しい非教師付きハッシュ法であるDistilled Smooth Guidance (DSG)を提案する。
具体的には、局所構造から得られた初期ノイズ類似性信号に基づいて類似度信頼度を求め、スムーズな類似性保存学習のための優先損失関数を構築する。
また、クラスタリングに基づくグローバル情報を用いて、矛盾する類似性信号を取り除き、画像対を蒸留する。
広く使用されている3つのベンチマークデータセットの大規模な実験により、提案したDSGは最先端の検索方法よりも一貫して優れていることが示された。
関連論文リスト
- Bit-mask Robust Contrastive Knowledge Distillation for Unsupervised
Semantic Hashing [71.47723696190184]
セマンティックハッシュのための革新的なBit-mask Robust Contrastive Knowledge Distillation (BRCD)法を提案する。
BRCDはセマンティックハッシュモデルの蒸留のために特別に考案されている。
論文 参考訳(メタデータ) (2024-03-10T03:33:59Z) - Unsupervised Hashing with Similarity Distribution Calibration [127.34239817201549]
教師なしハッシュ法は、特徴空間内のデータポイント間の類似性をバイナリハッシュコードにマッピングすることで保存することを目的としている。
これらの方法は、連続的な特徴空間におけるデータポイント間の類似性が離散的なハッシュコード空間に保存されないという事実をしばしば見落としている。
類似性範囲はコードの長さによって制限され、類似性崩壊と呼ばれる問題を引き起こす可能性がある。
本稿では,この問題を緩和する新しい類似度分布法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:06:39Z) - Deep Asymmetric Hashing with Dual Semantic Regression and Class
Structure Quantization [9.539842235137376]
本稿では,三重制約の下で識別ハッシュを生成する二項意味非対称ハッシュ(DSAH)法を提案する。
これら3つの主要コンポーネントにより、ネットワークを介して高品質なハッシュコードを生成することができる。
論文 参考訳(メタデータ) (2021-10-24T16:14:36Z) - STRONG: Synchronous and asynchronous RObust Network localization, under
Non-Gaussian noise [0.0]
現実世界のネットワークアプリケーションは、故障したノード、悪意のある攻撃、および外れ値として分類されたデータに対処しなければならない。
本研究はセンサネットワークローカライゼーションアルゴリズムの範囲内でこれらの懸念に対処する。
コントリビューションの大きな目玉は、証明可能な配布に対して、正確性も、通信コストも、速度も、何の費用も払わないという事実にあります。
論文 参考訳(メタデータ) (2021-10-01T18:01:28Z) - Pseudo-supervised Deep Subspace Clustering [27.139553299302754]
オートエンコーダ (AE) ベースのディープサブスペースクラスタリング (DSC) 手法は優れた性能を発揮している。
しかし、AEの自己再建損失は、豊富な有用な関係情報を無視する。
また、セマンティクスラベルを供給せずにハイレベルな類似性を学ぶことも困難である。
論文 参考訳(メタデータ) (2021-04-08T06:25:47Z) - Comprehensive Graph-conditional Similarity Preserving Network for
Unsupervised Cross-modal Hashing [97.44152794234405]
教師なしクロスモーダルハッシュ(UCMH)は近年ホットトピックとなっている。
本稿では,dgcpn(deep graph-neighbor coherence preservation network)を考案する。
DGCPNは3種類のデータ類似性を利用して、損失を保存する包括的な類似性を管理する。
論文 参考訳(メタデータ) (2020-12-25T07:40:59Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - Deep Robust Multilevel Semantic Cross-Modal Hashing [25.895586911858857]
ハッシュベースのクロスモーダル検索は、最近大きな進歩を遂げた。
しかし、異なるモダリティからのデータを共同のハミング空間に簡単に埋め込むことは、必然的に偽のコードを生成する。
より正確なクロスモーダル検索のための新しいロバスト多レベルセマンティックハッシュ(RMSH)を提案する。
論文 参考訳(メタデータ) (2020-02-07T10:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。