論文の概要: One Loss for Quantization: Deep Hashing with Discrete Wasserstein
Distributional Matching
- arxiv url: http://arxiv.org/abs/2205.15721v1
- Date: Tue, 31 May 2022 12:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 20:52:47.243528
- Title: One Loss for Quantization: Deep Hashing with Discrete Wasserstein
Distributional Matching
- Title(参考訳): 量子化の一損失:離散Wasserstein分布マッチングによるディープハッシュ
- Authors: Khoa D. Doan, Peng Yang, Ping Li
- Abstract要約: 画像ハッシュ(英: image hashing)は、画像の大規模なコレクションにおいて、クエリに類似したアイテムを見つけるために、原理的に最も近い近隣アプローチである。
最適な検索性能を得るためには、低量子化誤差でバランスの取れたハッシュコードを生成することが重要である。
本稿では、量子化制約を学習するための代替手法について考察し、量子化エラーの少ないバランスの取れた符号の学習タスクを、学習された連続コードの分布と事前定義された離散的均一な分布とを一致させるものとして再定式化する。
- 参考スコア(独自算出の注目度): 19.831174790835732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image hashing is a principled approximate nearest neighbor approach to find
similar items to a query in a large collection of images. Hashing aims to learn
a binary-output function that maps an image to a binary vector. For optimal
retrieval performance, producing balanced hash codes with low-quantization
error to bridge the gap between the learning stage's continuous relaxation and
the inference stage's discrete quantization is important. However, in the
existing deep supervised hashing methods, coding balance and low-quantization
error are difficult to achieve and involve several losses. We argue that this
is because the existing quantization approaches in these methods are
heuristically constructed and not effective to achieve these objectives. This
paper considers an alternative approach to learning the quantization
constraints. The task of learning balanced codes with low quantization error is
re-formulated as matching the learned distribution of the continuous codes to a
pre-defined discrete, uniform distribution. This is equivalent to minimizing
the distance between two distributions. We then propose a computationally
efficient distributional distance by leveraging the discrete property of the
hash functions. This distributional distance is a valid distance and enjoys
lower time and sample complexities. The proposed single-loss quantization
objective can be integrated into any existing supervised hashing method to
improve code balance and quantization error. Experiments confirm that the
proposed approach substantially improves the performance of several
representative hashing~methods.
- Abstract(参考訳): イメージハッシュ(英: image hashing)は、画像の大規模なコレクションでクエリーと類似のアイテムを見つけるための原則に基づく近似的な近接アプローチである。
Hashingは、イメージをバイナリベクトルにマップするバイナリ出力関数を学ぶことを目的としている。
最適な検索性能を得るためには, 学習段階の連続緩和と推定段階の離散量子化とのギャップを埋めるために, 低量子化誤差のバランス付きハッシュ符号を生成することが重要である。
しかし、既存の深層教師付きハッシュ手法では、符号化バランスと低量子化誤差は達成が困難であり、いくつかの損失が伴う。
これは、既存の量子化手法がヒューリスティックに構築されており、これらの目的を達成するには効果がないためである。
本稿では,量子化制約を学習するための代替手法を検討する。
低量子化誤差でバランスの取れた符号を学習するタスクは、連続符号の学習された分布と事前定義された離散的一様分布とを一致させるものとして再形成される。
これは2つの分布間の距離を最小化するのと同値である。
次に,ハッシュ関数の離散特性を利用した計算効率の良い分布距離を提案する。
この分布距離は有効な距離であり、より短い時間とサンプルの複雑さを楽しむ。
提案する単一損失量子化の目的は、コードバランスと量子化エラーを改善するために、既存の教師付きハッシュ手法に統合することができる。
実験により,提案手法がいくつかの代表ハッシュ法の性能を大幅に向上させることを確認した。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - One Loss for All: Deep Hashing with a Single Cosine Similarity based
Learning Objective [86.48094395282546]
ディープハッシュモデルは通常、学習されたバイナリハッシュコードの識別と量子化エラーの最小化という2つの学習目標を持つ。
本稿では,1つの学習目的しか持たない新しい深層ハッシュモデルを提案する。
我々のモデルは,3つの大規模インスタンス検索ベンチマークにおいて,最先端のマルチロスハッシュモデルより優れている。
論文 参考訳(メタデータ) (2021-09-29T14:27:51Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Generative Semantic Hashing Enhanced via Boltzmann Machines [61.688380278649056]
既存の生成ハッシュ法は、主に後部分布の分解形式を仮定する。
本稿では,ボルツマンマシンの分布を検索後部として利用することを提案する。
ハッシュコード内の異なるビット間の相関関係を効果的にモデル化することにより、我々のモデルは大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2020-06-16T01:23:39Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - Image Hashing by Minimizing Discrete Component-wise Wasserstein Distance [12.968141477410597]
競合するオートエンコーダは、バランスよく高品質なハッシュコードを生成する堅牢で局所性を保存するハッシュ関数を暗黙的に学習できることが示されている。
既存の逆ハッシュ法は、大規模な画像検索に非効率である。
本稿では,サンプル要求と計算コストを大幅に低減した,新しい対向型オートエンコーダハッシュ手法を提案する。
論文 参考訳(メタデータ) (2020-02-29T00:22:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。