論文の概要: Self-Distilled Hashing for Deep Image Retrieval
- arxiv url: http://arxiv.org/abs/2112.08816v1
- Date: Thu, 16 Dec 2021 12:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 21:45:57.226671
- Title: Self-Distilled Hashing for Deep Image Retrieval
- Title(参考訳): 深部画像検索のための自己蒸留ハッシュ
- Authors: Young Kyun Jang, Geonmo Gu, Byungsoo Ko, and Nam Ik Cho
- Abstract要約: ハッシュベースの画像検索システムでは、元の入力から変換された入力は通常、異なるコードを生成する。
本稿では,拡張データの可能性を活用しつつ,相違を最小限に抑えるために,自己蒸留ハッシュ方式を提案する。
また、ハッシュプロキシに基づく類似性学習や、バイナリクロスエントロピーに基づく量子化損失を導入し、高品質なハッシュコードを提供する。
- 参考スコア(独自算出の注目度): 25.645550298697938
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In hash-based image retrieval systems, the transformed input from the
original usually generates different codes, deteriorating the retrieval
accuracy. To mitigate this issue, data augmentation can be applied during
training. However, even if the augmented samples of one content are similar in
real space, the quantization can scatter them far away in Hamming space. This
results in representation discrepancies that can impede training and degrade
performance. In this work, we propose a novel self-distilled hashing scheme to
minimize the discrepancy while exploiting the potential of augmented data. By
transferring the hash knowledge of the weakly-transformed samples to the strong
ones, we make the hash code insensitive to various transformations. We also
introduce hash proxy-based similarity learning and binary cross entropy-based
quantization loss to provide fine quality hash codes. Ultimately, we construct
a deep hashing framework that generates discriminative hash codes. Extensive
experiments on benchmarks verify that our self-distillation improves the
existing deep hashing approaches, and our framework achieves state-of-the-art
retrieval results. The code will be released soon.
- Abstract(参考訳): ハッシュベースの画像検索システムでは、オリジナルからの変換入力は通常異なる符号を生成し、検索精度を低下させる。
この問題を軽減するために、トレーニング中にデータ拡張を適用することができる。
しかし、ある内容の増分されたサンプルが実空間で類似しているとしても、量子化はハミング空間で遠くに散らばることができる。
これにより、トレーニングを妨げ、パフォーマンスを低下させる表現の相違が生じます。
本研究では,拡張データのポテンシャルを生かしながら,不一致を最小限に抑えるための,新しい自己蒸留ハッシュ方式を提案する。
弱変換されたサンプルのハッシュ知識を強変換に変換することにより、ハッシュコードを様々な変換に不感にする。
また,ハッシュプロキシに基づく類似性学習とバイナリクロスエントロピーに基づく量子化損失を導入し,高品質なハッシュコードを提供する。
最終的に、差別的なハッシュコードを生成するディープハッシュフレームワークを構築します。
ベンチマークによる大規模な実験により,我々の自己蒸留が既存のディープハッシュ手法を改善することが確認された。
コードはまもなくリリースされる。
関連論文リスト
- A Lower Bound of Hash Codes' Performance [122.88252443695492]
本稿では,ハッシュ符号間のクラス間の差分性とクラス内圧縮性が,ハッシュ符号の性能の低い境界を決定することを証明する。
次に、ハッシュコードの後部を推定し、それを制御することにより、上記の目的を完全に活用する代理モデルを提案し、低バイアス最適化を実現する。
一連のハッシュモデルをテストすることで、平均精度が最大で26.5%、精度が最大で20.5%向上した。
論文 参考訳(メタデータ) (2022-10-12T03:30:56Z) - Learning to Hash Naturally Sorts [84.90210592082829]
そこで我々はNaturely-Sorted Hashing (NSH)を導入し,最終結果のソートによる深層ハッシュモデルのトレーニングを行った。
NSHはサンプルのハッシュコードのハミング距離をソートし、それに従って自己教師付きトレーニングのための潜伏した表現を収集する。
Sorted Noise-Contrastive Estimation (SortedNCE) の新たな損失について述べる。
論文 参考訳(メタデータ) (2022-01-31T16:19:02Z) - Hard Example Guided Hashing for Image Retrieval [3.606866431185676]
ハードサンプルの学習能力に影響を及ぼす主な要因は2つあり、これは弱い特徴抽出とハードサンプルの不足である。
本稿では,難解な例から重要な特徴を抽出し,正確な意味情報を持つハッシュコードを得るための,新しいエンドツーエンドモデルを提案する。
CIFAR-10 と NUS-WIDE による実験結果から,本モデルが主流のハッシュ画像検索手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-12-27T08:24:10Z) - Unsupervised Multi-Index Semantic Hashing [23.169142004594434]
マルチインデックスハッシュに最適化することで,効率的かつ高効率なハッシュコードを学習する教師なしハッシュモデルを提案する。
文書類似度検索のタスクにおいて、MISHと最先端のセマンティックハッシュベースラインを実験的に比較する。
マルチインデックスハッシュは、線形スキャンと比較してベースラインの効率も向上しますが、MISHよりも33%遅くなっています。
論文 参考訳(メタデータ) (2021-03-26T13:33:48Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Reinforcement Learning with Label Embedding Reward for Supervised
Image Hashing [85.84690941656528]
深層型ハッシュのための新しい意思決定手法を提案する。
我々はBose-Chaudhuri-Hocquenghem符号で定義された新しいラベル埋め込み報酬を用いて、深いQ-ネットワークを学ぶ。
我々の手法は、様々なコード長で最先端の教師付きハッシュ法より優れています。
論文 参考訳(メタデータ) (2020-08-10T09:17:20Z) - Dual-level Semantic Transfer Deep Hashing for Efficient Social Image
Retrieval [35.78137004253608]
ソーシャルネットワークは膨大な量のユーザ共有画像を保存し、配布する。
ディープハッシュは、大規模社会画像検索をサポートする効率的なインデックス化技術である。
既存の手法は、大量のディープニューラルネットワークパラメータを最適化する際に、深刻なセマンティックな不足に悩まされる。
本稿では,DSTDH(Dual-level Semantic Transfer Deep Hashing)法を提案する。
論文 参考訳(メタデータ) (2020-06-10T01:03:09Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - Image Hashing by Minimizing Discrete Component-wise Wasserstein Distance [12.968141477410597]
競合するオートエンコーダは、バランスよく高品質なハッシュコードを生成する堅牢で局所性を保存するハッシュ関数を暗黙的に学習できることが示されている。
既存の逆ハッシュ法は、大規模な画像検索に非効率である。
本稿では,サンプル要求と計算コストを大幅に低減した,新しい対向型オートエンコーダハッシュ手法を提案する。
論文 参考訳(メタデータ) (2020-02-29T00:22:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。