論文の概要: Weighted Contrastive Hashing
- arxiv url: http://arxiv.org/abs/2209.14099v1
- Date: Wed, 28 Sep 2022 13:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 18:05:55.709883
- Title: Weighted Contrastive Hashing
- Title(参考訳): 重み付きコントラストハッシュ
- Authors: Jiaguo Yu, Huming Qiu, Dubing Chen, Haofeng Zhang
- Abstract要約: 教師なしハッシュ開発は、世界限定の画像表現に基づくデータ類似性マイニングの不足によって妨げられている。
本稿では,欠落した画像構造によって引き起こされるネットワーク特徴における情報非対称性の問題を軽減するために,新たな相互注意モジュールを提案する。
深い画像関係を反映した集約重み付き類似性を蒸留し、蒸留損失を伴うハッシュコード学習を容易にする。
- 参考スコア(独自算出の注目度): 11.14153532458873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of unsupervised hashing is advanced by the recent popular
contrastive learning paradigm. However, previous contrastive learning-based
works have been hampered by (1) insufficient data similarity mining based on
global-only image representations, and (2) the hash code semantic loss caused
by the data augmentation. In this paper, we propose a novel method, namely
Weighted Contrative Hashing (WCH), to take a step towards solving these two
problems. We introduce a novel mutual attention module to alleviate the problem
of information asymmetry in network features caused by the missing image
structure during contrative augmentation. Furthermore, we explore the
fine-grained semantic relations between images, i.e., we divide the images into
multiple patches and calculate similarities between patches. The aggregated
weighted similarities, which reflect the deep image relations, are distilled to
facilitate the hash codes learning with a distillation loss, so as to obtain
better retrieval performance. Extensive experiments show that the proposed WCH
significantly outperforms existing unsupervised hashing methods on three
benchmark datasets.
- Abstract(参考訳): 教師なしハッシュの開発は、最近の一般的なコントラスト学習パラダイムによって進められている。
しかし,(1)グローバル画像表現に基づくデータ類似度マイニングの不足,(2)データ拡張によるハッシュコード意味喪失などにより,従来のコントラスト学習に基づく研究は妨げられている。
本稿では,これら2つの問題を解決するための一歩を踏み出すために,重み付き対向ハッシュ法(wch)を提案する。
コントラスト増強時の画像構造の欠如に起因するネットワーク特徴における情報非対称性の問題を軽減するために,新たな相互注意モジュールを導入する。
さらに,画像間の詳細な意味関係,すなわち,複数のパッチに分割し,パッチ間の類似度を計算する。
奥行き画像関係を反映した集約重み付き類似度を蒸留することにより、蒸留損失を伴うハッシュコード学習が容易になり、検索性能が向上する。
大規模な実験により、提案されたWCHは既存の教師なしハッシュ法を3つのベンチマークデータセットで大幅に上回っていることが示された。
関連論文リスト
- Bit-mask Robust Contrastive Knowledge Distillation for Unsupervised
Semantic Hashing [71.47723696190184]
セマンティックハッシュのための革新的なBit-mask Robust Contrastive Knowledge Distillation (BRCD)法を提案する。
BRCDはセマンティックハッシュモデルの蒸留のために特別に考案されている。
論文 参考訳(メタデータ) (2024-03-10T03:33:59Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Cascading Hierarchical Networks with Multi-task Balanced Loss for
Fine-grained hashing [1.6244541005112747]
きめ細かいハッシュは従来のハッシュ問題よりも難しい。
本稿では,コンパクトでセマンティックなハッシュコードを学習するためのカスケードネットワークを提案する。
また,マルチタスク学習の損失を協調的にバランスさせる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-20T17:08:48Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Deep Self-Adaptive Hashing for Image Retrieval [16.768754022585057]
2つの特殊設計で意味情報を適応的にキャプチャするtextbfDeep Self-Adaptive Hashing(DSAH)モデルを提案する。
まず,近辺型類似度行列を構築し,その初期類似度行列を新しい更新戦略で改良する。
第2に、PICを用いたデータペアの優先度を測定し、それらに適応重みを割り当てる。これは、より異種なデータペアがハッシュ学習のためのより差別的な情報を含んでいるという仮定に依存する。
論文 参考訳(メタデータ) (2021-08-16T13:53:20Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Learning to hash with semantic similarity metrics and empirical KL
divergence [3.04585143845864]
ハッシュの学習は、大規模データベースからの近接探索を正確に、そして近似的に行うための効率的なパラダイムである。
バイナリハッシュコードは典型的には、CNNから出力特徴を丸め、イメージから抽出される。
i) 学習特徴の相対的なハッシュコード距離を目標値と一致するように促進する新規な損失関数により, (i) を克服する。
我々は、ネットワーク出力とバイナリターゲット分布のKL分散の微分可能な推定を通じて、(ii)に対処し、その結果、特徴がバイナリに丸められたときの情報損失を最小限に抑える。
論文 参考訳(メタデータ) (2020-05-11T08:20:26Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。