論文の概要: HHF: Hashing-guided Hinge Function for Deep Hashing Retrieval
- arxiv url: http://arxiv.org/abs/2112.02225v1
- Date: Sat, 4 Dec 2021 03:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 12:51:16.343822
- Title: HHF: Hashing-guided Hinge Function for Deep Hashing Retrieval
- Title(参考訳): HHF:深部ハッシュ検索のためのハッシュ誘導ヒンジ関数
- Authors: Chengyin Xu, Zhengzhuo Xu, Zenghao Chai, Hongjia Li, Qiruyi Zuo,
Lingyu Yang and Chun Yuan
- Abstract要約: textbfDeep textbfNeural textbfNetwork (DNN)によって抽出された潜時コードは、バイナライゼーションプロセス中に必然的にセマンティック情報を失う。
textbfHashing-guided textbfHinge textbfFunction (HHF) はそのような衝突を避けるために提案されている。
本稿では,パラメータ学習と量子化学習のバランスをとるために,ハッシュビット長とカテゴリ数に依存する特定の屈折点を慎重に設計する。
- 参考スコア(独自算出の注目度): 14.35219963508551
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep hashing has shown promising performance in large-scale image retrieval.
However, latent codes extracted by \textbf{D}eep \textbf{N}eural
\textbf{N}etwork (DNN) will inevitably lose semantic information during the
binarization process, which damages the retrieval efficiency and make it
challenging. Although many existing approaches perform regularization to
alleviate quantization errors, we figure out an incompatible conflict between
the metric and quantization losses. The metric loss penalizes the inter-class
distances to push different classes unconstrained far away. Worse still, it
tends to map the latent code deviate from ideal binarization point and generate
severe ambiguity in the binarization process. Based on the minimum distance of
the binary linear code, \textbf{H}ashing-guided \textbf{H}inge
\textbf{F}unction (HHF) is proposed to avoid such conflict. In detail, we
carefully design a specific inflection point, which relies on the hash bit
length and category numbers to balance metric learning and quantization
learning. Such a modification prevents the network from falling into local
metric optimal minima in deep hashing. Extensive experiments in CIFAR-10,
CIFAR-100, ImageNet, and MS-COCO show that HHF consistently outperforms
existing techniques, and is robust and flexible to transplant into other
methods.
- Abstract(参考訳): ディープハッシュは大規模画像検索において有望な性能を示した。
しかし、dNN (textbf{D}eep \textbf{N}eural \textbf{N}etwork) によって抽出された潜時符号は、二項化処理中に必然的に意味情報をなくし、検索効率を損なう。
多くの既存手法は量子化誤差を軽減するために正規化を行うが、計量と量子化損失の間には相容れない矛盾が生じる。
メトリック損失はクラス間距離をペナルティ化し、異なるクラスが制約を受けずに遠くへ押し出す。
さらに悪いことに、潜在コードは理想的なバイナリ化ポイントから逸脱し、バイナリ化プロセスで深刻なあいまいさを生み出す傾向がある。
二進線型符号の最小距離に基づいて、そのような衝突を避けるために、 \textbf{H}ashing-guided \textbf{H}inge \textbf{F}unction (HHF)を提案する。
本稿では,パラメータ学習と量子化学習のバランスをとるために,ハッシュビット長とカテゴリ数に依存する特定の屈折点を慎重に設計する。
このような修正は、ディープハッシュにおいてネットワークが局所的メトリック最適ミニマに陥ることを防ぐ。
CIFAR-10、CIFAR-100、ImageNet、MS-COCOの大規模な実験は、HHFが既存の技術より一貫して優れており、他の方法への移植にも柔軟であることを示している。
関連論文リスト
- Sparse-Inductive Generative Adversarial Hashing for Nearest Neighbor
Search [8.020530603813416]
本稿では,Sparsity-induced Generative Adversarial Hashing (SiGAH)と呼ばれる新しい教師なしハッシュ法を提案する。
SiGAHは、大規模な高次元特徴をバイナリコードにエンコードする。
Tiny100K、GIST1M、Deep1M、MNISTの4つのベンチマーク実験の結果、提案されたSiGAHは最先端のアプローチよりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-06-12T08:07:23Z) - Cascading Hierarchical Networks with Multi-task Balanced Loss for
Fine-grained hashing [1.6244541005112747]
きめ細かいハッシュは従来のハッシュ問題よりも難しい。
本稿では,コンパクトでセマンティックなハッシュコードを学習するためのカスケードネットワークを提案する。
また,マルチタスク学習の損失を協調的にバランスさせる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-20T17:08:48Z) - FDDH: Fast Discriminative Discrete Hashing for Large-Scale Cross-Modal
Retrieval [41.125141897096874]
クロスモーダルハッシュはその有効性と効率性に好まれる。
既存のほとんどのメソッドは、ハッシュコードを学ぶ際に意味情報の識別力を十分に利用していない。
大規模クロスモーダル検索のためのFDDH(Fast Discriminative Discrete Hashing)手法を提案する。
論文 参考訳(メタデータ) (2021-05-15T03:53:48Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Momentum Uncertainty Hashing [65.27971340060687]
我々は,新しいDeep Momentum Uncertainity Hashing (DMUH)を提案する。
トレーニング中の不確実性を明示的に推定し、不確実性情報を利用して近似過程を導出する。
提案手法は,すべてのデータセット上で最高の性能を達成し,既存の最先端手法を大きなマージンで超越する。
論文 参考訳(メタデータ) (2020-09-17T01:57:45Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - Targeted Attack for Deep Hashing based Retrieval [57.582221494035856]
本研究では, ディープ・ハッシュ・ターゲット・アタック (DHTA) と呼ばれる新たな手法を提案し, 対象とする攻撃を探索する。
まず、対象の攻撃を点対セットの最適化として定式化し、敵のサンプルのハッシュコードと対象のラベルを持つ対象の集合の平均距離を最小化する。
性能と知覚性のバランスをとるために,摂動に対する$ellinfty$制限の下で,逆例のハッシュコードとアンカーコードとのハミング距離を最小化することを提案する。
論文 参考訳(メタデータ) (2020-04-15T08:36:58Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。