論文の概要: Sparse-Inductive Generative Adversarial Hashing for Nearest Neighbor
Search
- arxiv url: http://arxiv.org/abs/2306.06928v1
- Date: Mon, 12 Jun 2023 08:07:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 15:40:04.912346
- Title: Sparse-Inductive Generative Adversarial Hashing for Nearest Neighbor
Search
- Title(参考訳): 近傍探索のためのスパース帰納的生成逆ハッシュ
- Authors: Hong Liu
- Abstract要約: 本稿では,Sparsity-induced Generative Adversarial Hashing (SiGAH)と呼ばれる新しい教師なしハッシュ法を提案する。
SiGAHは、大規模な高次元特徴をバイナリコードにエンコードする。
Tiny100K、GIST1M、Deep1M、MNISTの4つのベンチマーク実験の結果、提案されたSiGAHは最先端のアプローチよりも優れた性能を示している。
- 参考スコア(独自算出の注目度): 8.020530603813416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised hashing has received extensive research focus on the past
decade, which typically aims at preserving a predefined metric (i.e. Euclidean
metric) in the Hamming space. To this end, the encoding functions of the
existing hashing are typically quasi-isometric, which devote to reducing the
quantization loss from the target metric space to the discrete Hamming space.
However, it is indeed problematic to directly minimize such error, since such
mentioned two metric spaces are heterogeneous, and the quasi-isometric mapping
is non-linear. The former leads to inconsistent feature distributions, while
the latter leads to problematic optimization issues. In this paper, we propose
a novel unsupervised hashing method, termed Sparsity-Induced Generative
Adversarial Hashing (SiGAH), to encode large-scale high-dimensional features
into binary codes, which well solves the two problems through a generative
adversarial training framework. Instead of minimizing the quantization loss,
our key innovation lies in enforcing the learned Hamming space to have similar
data distribution to the target metric space via a generative model. In
particular, we formulate a ReLU-based neural network as a generator to output
binary codes and an MSE-loss based auto-encoder network as a discriminator,
upon which a generative adversarial learning is carried out to train hash
functions. Furthermore, to generate the synthetic features from the hash codes,
a compressed sensing procedure is introduced into the generative model, which
enforces the reconstruction boundary of binary codes to be consistent with that
of original features. Finally, such generative adversarial framework can be
trained via the Adam optimizer. Experimental results on four benchmarks, i.e.,
Tiny100K, GIST1M, Deep1M, and MNIST, have shown that the proposed SiGAH has
superior performance over the state-of-the-art approaches.
- Abstract(参考訳): 教師なしハッシュは、通常、ハミング空間における予め定義された計量(すなわちユークリッド計量)を保存することを目的として、過去10年間に広範な研究の焦点をあててきた。
この目的のために、既存のハッシュの符号化関数は通常準同型であり、対象の計量空間から離散ハミング空間への量子化損失を減少させる。
しかし、上記の2つの距離空間は不均一であり、準等尺写像は非線形であるため、そのような誤差を直接最小化することは実際問題である。
前者は一貫性のない特徴分布、後者は問題のある最適化問題につながる。
本稿では,大規模高次元特徴をバイナリコードにエンコードする,Sparsity-induced Generative Adversarial Hashing (SiGAH) と呼ばれる新しい教師なしハッシュ法を提案する。
量子化損失を最小化するのではなく、私たちの重要なイノベーションは学習ハミング空間を生成モデルを通じてターゲットの計量空間と同じようなデータ分布を持つように強制することにあります。
特に、ReLUベースのニューラルネットワークをジェネレータとして定式化し、バイナリコードを出力し、MSEロスベースのオートエンコーダネットワークを識別器として、生成逆学習を行いハッシュ関数を訓練する。
さらに、ハッシュコードから合成特徴を生成するために、圧縮されたセンシング手順を生成モデルに導入し、元の特徴と整合するようにバイナリコードの再構成境界を強制する。
最後に、このような生成的敵対的フレームワークは、Adamオプティマイザを通じて訓練することができる。
Tiny100K、GIST1M、Deep1M、MNISTの4つのベンチマーク実験の結果、提案されたSiGAHは最先端のアプローチよりも優れた性能を示している。
関連論文リスト
- Hamming Encoder: Mining Discriminative k-mers for Discrete Sequence
Classification [1.6693049653540362]
既存のパターンベースの手法は、採掘過程において個々の特徴の識別力を測定する。
シーケンスを特徴ベクトルに変換した後、全体的な識別性能を確保することは困難である。
本稿では,二項化1D畳み込みニューラルネットワーク(1DCNN)アーキテクチャを用いて,識別的k-mer集合をマイニングするハミングを提案する。
論文 参考訳(メタデータ) (2023-10-16T12:03:27Z) - Improving Dual-Encoder Training through Dynamic Indexes for Negative
Mining [61.09807522366773]
本稿では,ソフトマックスを証明可能な境界で近似し,木を動的に維持するアルゴリズムを提案する。
我々は,2000万以上のターゲットを持つデータセットについて検討し,オラクル・ブルート力負の鉱業に関して,誤差を半分に削減した。
論文 参考訳(メタデータ) (2023-03-27T15:18:32Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - HHF: Hashing-guided Hinge Function for Deep Hashing Retrieval [14.35219963508551]
textbfDeep textbfNeural textbfNetwork (DNN)によって抽出された潜時コードは、バイナライゼーションプロセス中に必然的にセマンティック情報を失う。
textbfHashing-guided textbfHinge textbfFunction (HHF) はそのような衝突を避けるために提案されている。
本稿では,パラメータ学習と量子化学習のバランスをとるために,ハッシュビット長とカテゴリ数に依存する特定の屈折点を慎重に設計する。
論文 参考訳(メタデータ) (2021-12-04T03:16:42Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Self-Supervised Bernoulli Autoencoders for Semi-Supervised Hashing [1.8899300124593648]
本稿では,変分オートエンコーダに基づくハッシュ手法のロバスト性と,監督の欠如について検討する。
本稿では,モデルがラベル分布予測を用いて一対の目的を実現する新しい監視手法を提案する。
実験の結果,いずれの手法もハッシュコードの品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-07-17T07:47:10Z) - Generative Semantic Hashing Enhanced via Boltzmann Machines [61.688380278649056]
既存の生成ハッシュ法は、主に後部分布の分解形式を仮定する。
本稿では,ボルツマンマシンの分布を検索後部として利用することを提案する。
ハッシュコード内の異なるビット間の相関関係を効果的にモデル化することにより、我々のモデルは大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2020-06-16T01:23:39Z) - Error-Corrected Margin-Based Deep Cross-Modal Hashing for Facial Image
Retrieval [26.706148476396105]
クロスモーダルハッシュは、異種マルチメディアデータの共通のハミング空間へのマッピングを容易にする。
我々は新しいクロスモーダルハッシュアーキテクチャーディープニューラルデコーダクロスモーダルハッシュ(DNDCMH)を提案する。
論文 参考訳(メタデータ) (2020-04-03T08:20:08Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。