論文の概要: Shuffle and Learn: Minimizing Mutual Information for Unsupervised
Hashing
- arxiv url: http://arxiv.org/abs/2011.10239v1
- Date: Fri, 20 Nov 2020 07:14:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 05:39:01.520664
- Title: Shuffle and Learn: Minimizing Mutual Information for Unsupervised
Hashing
- Title(参考訳): Shuffleと学習:教師なしハッシュのための相互情報の最小化
- Authors: Fangrui Liu, Zheng Liu
- Abstract要約: 教師なしバイナリ表現は、アノテーションなしで高速なデータ検索を可能にする。
バイナリ空間における衝突は、高性能な教師なしハッシュの主要な障壁の1つである。
Shuffle and Learnと呼ばれる新しい緩和法は、教師なしハッシュにおけるコード競合に対処するために提案されている。
- 参考スコア(独自算出の注目度): 4.518427368603235
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised binary representation allows fast data retrieval without any
annotations, enabling practical application like fast person re-identification
and multimedia retrieval. It is argued that conflicts in binary space are one
of the major barriers to high-performance unsupervised hashing as current
methods failed to capture the precise code conflicts in the full domain. A
novel relaxation method called Shuffle and Learn is proposed to tackle code
conflicts in the unsupervised hash. Approximated derivatives for joint
probability and the gradients for the binary layer are introduced to bridge the
update from the hash to the input. Proof on $\epsilon$-Convergence of joint
probability with approximated derivatives is provided to guarantee the
preciseness on update applied on the mutual information. The proposed algorithm
is carried out with iterative global updates to minimize mutual information,
diverging the code before regular unsupervised optimization. Experiments
suggest that the proposed method can relax the code optimization from local
optimum and help to generate binary representations that are more
discriminative and informative without any annotations. Performance benchmarks
on image retrieval with the unsupervised binary code are conducted on three
open datasets, and the model achieves state-of-the-art accuracy on image
retrieval task for all those datasets. Datasets and reproducible code are
provided.
- Abstract(参考訳): 教師なしバイナリ表現は、アノテーションなしで高速なデータ検索を可能にし、高速人物再識別やマルチメディア検索のような実用的なアプリケーションを可能にする。
バイナリ空間における競合は、現在のメソッドが完全なドメイン内の正確なコード競合を捕捉できなかったため、高性能な教師なしハッシュに対する大きな障壁の1つである、と論じられている。
教師なしハッシュの符号競合に対処するために、shuffle and learnと呼ばれる新しい緩和法が提案されている。
ハッシュから入力への更新をブリッジするために、ジョイント確率の近似微分とバイナリ層の勾配を導入する。
相互情報に適用される更新の正確性を保証するため、近似微分を持つ合同確率の$\epsilon$-convergenceに関する証明を提供する。
提案アルゴリズムは相互情報を最小限に抑えるために反復的グローバル更新を用いて実行され、通常の教師なし最適化の前にコードを分岐する。
実験により,提案手法は局所最適からコードの最適化を緩和し,アノテーションを使わずにより識別的かつ情報的なバイナリ表現を生成することができることが示唆された。
教師なしバイナリコードによる画像検索のパフォーマンスベンチマークを3つのオープンデータセット上で実施し、これらのデータセットに対する画像検索タスクにおける最先端の精度を実現する。
データセットと再現可能なコードが提供される。
関連論文リスト
- CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Momentum Uncertainty Hashing [65.27971340060687]
我々は,新しいDeep Momentum Uncertainity Hashing (DMUH)を提案する。
トレーニング中の不確実性を明示的に推定し、不確実性情報を利用して近似過程を導出する。
提案手法は,すべてのデータセット上で最高の性能を達成し,既存の最先端手法を大きなマージンで超越する。
論文 参考訳(メタデータ) (2020-09-17T01:57:45Z) - ExchNet: A Unified Hashing Network for Large-Scale Fine-Grained Image
Retrieval [43.41089241581596]
そこで我々は, きめ細かい画像のためのコンパクトなバイナリコードを生成するために, 新たなきめ細かなハッシュトピックについて検討した。
我々は、ExchNetと呼ばれる、エンドツーエンドのトレーニング可能な統合ネットワークを提案する。
提案手法は,5つのきめ細かいデータセットに対して,最先端の汎用ハッシュ法より一貫して優れている。
論文 参考訳(メタデータ) (2020-08-04T07:01:32Z) - Unsupervised Deep Cross-modality Spectral Hashing [65.3842441716661]
このフレームワークは、最適化をバイナリ最適化とハッシュ関数学習に分離する2段階のハッシュアプローチである。
本稿では,単一モダリティと二項相互モダリティを同時に学習するスペクトル埋め込みに基づく新しいアルゴリズムを提案する。
我々は、画像に強力なCNNを活用し、テキストモダリティを学ぶためのCNNベースのディープアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-08-01T09:20:11Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Self-Supervised Bernoulli Autoencoders for Semi-Supervised Hashing [1.8899300124593648]
本稿では,変分オートエンコーダに基づくハッシュ手法のロバスト性と,監督の欠如について検討する。
本稿では,モデルがラベル分布予測を用いて一対の目的を実現する新しい監視手法を提案する。
実験の結果,いずれの手法もハッシュコードの品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-07-17T07:47:10Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。