論文の概要: Learning to Hash Naturally Sorts
- arxiv url: http://arxiv.org/abs/2201.13322v1
- Date: Mon, 31 Jan 2022 16:19:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 15:40:35.587049
- Title: Learning to Hash Naturally Sorts
- Title(参考訳): 自然にハッシュする学習
- Authors: Yuming Shen, Jiaguo Yu, Haofeng Zhang, Philip H.S. Torr, Menghan Wang
- Abstract要約: そこで我々はNaturely-Sorted Hashing (NSH)を導入し,最終結果のソートによる深層ハッシュモデルのトレーニングを行った。
NSHはサンプルのハッシュコードのハミング距離をソートし、それに従って自己教師付きトレーニングのための潜伏した表現を収集する。
Sorted Noise-Contrastive Estimation (SortedNCE) の新たな損失について述べる。
- 参考スコア(独自算出の注目度): 84.90210592082829
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Locality sensitive hashing pictures a list-wise sorting problem. Its testing
metrics, e.g., mean-average precision, count on a sorted candidate list ordered
by pair-wise code similarity. However, scarcely does one train a deep hashing
model with the sorted results end-to-end because of the non-differentiable
nature of the sorting operation. This inconsistency in the objectives of
training and test may lead to sub-optimal performance since the training loss
often fails to reflect the actual retrieval metric. In this paper, we tackle
this problem by introducing Naturally-Sorted Hashing (NSH). We sort the Hamming
distances of samples' hash codes and accordingly gather their latent
representations for self-supervised training. Thanks to the recent advances in
differentiable sorting approximations, the hash head receives gradients from
the sorter so that the hash encoder can be optimized along with the training
procedure. Additionally, we describe a novel Sorted Noise-Contrastive
Estimation (SortedNCE) loss that selectively picks positive and negative
samples for contrastive learning, which allows NSH to mine data semantic
relations during training in an unsupervised manner. Our extensive experiments
show the proposed NSH model significantly outperforms the existing unsupervised
hashing methods on three benchmarked datasets.
- Abstract(参考訳): 局所性に敏感なハッシュ画像はリストワイドソート問題である。
そのテストメトリクス、例えば平均平均精度は、ペアワイズコードの類似性によって順序付けられたソートされた候補リストをカウントする。
しかし、ソート動作の非微分性のため、ソート結果がエンドツーエンドで深いハッシュモデルを訓練することは少ない。
トレーニングとテストの目的におけるこの矛盾は、トレーニング損失が実際の検索基準を反映しないことが多いため、準最適パフォーマンスをもたらす可能性がある。
本稿では,自然ソートハッシュ(nsh)を導入することでこの問題に取り組む。
サンプルのハッシュコードのハミング距離を分類し,それらの潜在表現を自己教師付きトレーニングのために収集する。
近年の微分可能ソート近似の進歩により、ハッシュヘッドはソータから勾配を受け取り、ハッシュエンコーダをトレーニング手順に合わせて最適化することができる。
さらに,nshが教師なしの方法で学習中にデータ意味関係をマイニングすることを可能にするコントラスト学習において,正のサンプルと負のサンプルを選択的に選択する,新しいソートされたノイズコントラスト推定(ソートデンス)損失について述べる。
提案したNSHモデルは,3つのベンチマークデータセット上で既存の教師なしハッシュ法よりも大幅に優れていることを示す。
関連論文リスト
- Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Unified Functional Hashing in Automatic Machine Learning [58.77232199682271]
高速に統一された関数型ハッシュを用いることで,大きな効率向上が得られることを示す。
私たちのハッシュは"機能的"であり、表現やコードが異なる場合でも同等の候補を識別します。
ニューラルアーキテクチャ検索やアルゴリズム発見など、複数のAutoMLドメインで劇的な改善がなされている。
論文 参考訳(メタデータ) (2023-02-10T18:50:37Z) - Learning by Sorting: Self-supervised Learning with Group Ordering
Constraints [75.89238437237445]
本稿では,対照学習目標である群順序制約(GroCo)の新たなバリエーションを提案する。
正の対と負の対の距離をソートし、正の対が負の対よりも多くの距離を持つかに基づいてそれぞれの損失を計算するという考え方を利用しており、したがって正しく順序付けされていない。
各種自己教師付き学習ベンチマークの定式化について検討し、バニラのコントラスト学習と比較して結果が向上するだけでなく、k-NNの性能において、線形探索や性能向上において同等の手法と競合する性能を示すことを示す。
論文 参考訳(メタデータ) (2023-01-05T11:17:55Z) - Self-Distilled Hashing for Deep Image Retrieval [25.645550298697938]
ハッシュベースの画像検索システムでは、元の入力から変換された入力は通常、異なるコードを生成する。
本稿では,拡張データの可能性を活用しつつ,相違を最小限に抑えるために,自己蒸留ハッシュ方式を提案する。
また、ハッシュプロキシに基づく類似性学習や、バイナリクロスエントロピーに基づく量子化損失を導入し、高品質なハッシュコードを提供する。
論文 参考訳(メタデータ) (2021-12-16T12:01:50Z) - Unsupervised Multi-Index Semantic Hashing [23.169142004594434]
マルチインデックスハッシュに最適化することで,効率的かつ高効率なハッシュコードを学習する教師なしハッシュモデルを提案する。
文書類似度検索のタスクにおいて、MISHと最先端のセマンティックハッシュベースラインを実験的に比較する。
マルチインデックスハッシュは、線形スキャンと比較してベースラインの効率も向上しますが、MISHよりも33%遅くなっています。
論文 参考訳(メタデータ) (2021-03-26T13:33:48Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Image Hashing by Minimizing Discrete Component-wise Wasserstein Distance [12.968141477410597]
競合するオートエンコーダは、バランスよく高品質なハッシュコードを生成する堅牢で局所性を保存するハッシュ関数を暗黙的に学習できることが示されている。
既存の逆ハッシュ法は、大規模な画像検索に非効率である。
本稿では,サンプル要求と計算コストを大幅に低減した,新しい対向型オートエンコーダハッシュ手法を提案する。
論文 参考訳(メタデータ) (2020-02-29T00:22:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。