論文の概要: Self-Supervised Bernoulli Autoencoders for Semi-Supervised Hashing
- arxiv url: http://arxiv.org/abs/2007.08799v1
- Date: Fri, 17 Jul 2020 07:47:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:14:02.861375
- Title: Self-Supervised Bernoulli Autoencoders for Semi-Supervised Hashing
- Title(参考訳): 半監督ハッシュのための自己監督ベルヌーイオートエンコーダ
- Authors: Ricardo \~Nanculef, Francisco Mena, Antonio Macaluso, Stefano Lodi,
Claudio Sartori
- Abstract要約: 本稿では,変分オートエンコーダに基づくハッシュ手法のロバスト性と,監督の欠如について検討する。
本稿では,モデルがラベル分布予測を用いて一対の目的を実現する新しい監視手法を提案する。
実験の結果,いずれの手法もハッシュコードの品質を大幅に向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 1.8899300124593648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic hashing is an emerging technique for large-scale similarity search
based on representing high-dimensional data using similarity-preserving binary
codes used for efficient indexing and search. It has recently been shown that
variational autoencoders, with Bernoulli latent representations parametrized by
neural nets, can be successfully trained to learn such codes in supervised and
unsupervised scenarios, improving on more traditional methods thanks to their
ability to handle the binary constraints architecturally. However, the scenario
where labels are scarce has not been studied yet.
This paper investigates the robustness of hashing methods based on
variational autoencoders to the lack of supervision, focusing on two
semi-supervised approaches currently in use. The first augments the variational
autoencoder's training objective to jointly model the distribution over the
data and the class labels. The second approach exploits the annotations to
define an additional pairwise loss that enforces consistency between the
similarity in the code (Hamming) space and the similarity in the label space.
Our experiments show that both methods can significantly increase the hash
codes' quality. The pairwise approach can exhibit an advantage when the number
of labelled points is large. However, we found that this method degrades
quickly and loses its advantage when labelled samples decrease. To circumvent
this problem, we propose a novel supervision method in which the model uses its
label distribution predictions to implement the pairwise objective. Compared to
the best baseline, this procedure yields similar performance in fully
supervised settings but improves the results significantly when labelled data
is scarce. Our code is made publicly available at
https://github.com/amacaluso/SSB-VAE.
- Abstract(参考訳): セマンティックハッシュ(Semantic hashing)は、効率的な索引付けと探索に使用される類似性保存バイナリコードを用いて、高次元データを表現した大規模類似性検索の新興技術である。
ニューラルネットワークによってパラメータ化されたBernoulli潜在表現を持つ変分オートエンコーダは、教師付きおよび教師なしのシナリオでそのようなコードを学習し、アーキテクチャ的にバイナリ制約を処理する能力によって、より伝統的な方法を改善するために、うまくトレーニング可能であることが最近示されている。
しかし、ラベルが乏しいシナリオはまだ研究されていない。
本稿では,現在使用されている2つの半教師付きアプローチに着目し,変分オートエンコーダに基づくハッシュ手法のロバスト性について検討する。
1つ目は変分オートエンコーダのトレーニング目標を補強し、データとクラスラベルの分布を共同でモデル化する。
2つ目のアプローチはアノテーションを利用して、コード(ハミング)空間の類似性とラベル空間の類似性の間の一貫性を強制する、追加のペアワイズ損失を定義する。
実験の結果,両手法ともハッシュコードの品質を著しく向上できることがわかった。
ペアワイズアプローチは、ラベル付き点の数が大きい場合に有利を示すことができる。
しかし, ラベル付き試料が減少すると, この手法は急速に劣化し, 利点が失われることがわかった。
この問題を回避するため,本モデルではラベル分布予測を用いてペアワイズ目標を実現する新しい監督手法を提案する。
最高のベースラインと比較すると、この手順は、完全に教師付き設定で同様のパフォーマンスをもたらすが、ラベル付きデータが少ない場合の結果を大幅に改善する。
私たちのコードはhttps://github.com/amacaluso/ssb-vaeで公開されています。
関連論文リスト
- Supervised Auto-Encoding Twin-Bottleneck Hashing [5.653113092257149]
Twin-Bottleneck Hashingはグラフを動的に構築する手法である。
本研究では,ラベル情報を組み込むことで,オリジナルモデルを教師付きディープハッシュネットワークに一般化する。
論文 参考訳(メタデータ) (2023-06-19T18:50:02Z) - Unsupervised Hashing with Similarity Distribution Calibration [127.34239817201549]
教師なしハッシュ法は、特徴空間内のデータポイント間の類似性をバイナリハッシュコードにマッピングすることで保存することを目的としている。
これらの方法は、連続的な特徴空間におけるデータポイント間の類似性が離散的なハッシュコード空間に保存されないという事実をしばしば見落としている。
類似性範囲はコードの長さによって制限され、類似性崩壊と呼ばれる問題を引き起こす可能性がある。
本稿では,この問題を緩和する新しい類似度分布法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:06:39Z) - SimPLE: Similar Pseudo Label Exploitation for Semi-Supervised
Classification [24.386165255835063]
一般的な分類タスクの状況は、トレーニングに利用可能な大量のデータを持っているが、クラスラベルを持つのはごく一部である。
この文脈で、半監督トレーニングの目標は、大量のラベルのないデータからの情報を利用して分類精度を向上させることです。
本研究では,相互に類似した高信頼度ラベル付きデータ間の研究の少ない関係に焦点をあてた,教師なしの新たな目的を提案する。
提案したSimPLEアルゴリズムは,CIFAR-100およびMini-ImageNetにおける従来のアルゴリズムと比較して有意な性能向上を示した。
論文 参考訳(メタデータ) (2021-03-30T23:48:06Z) - Rank-Consistency Deep Hashing for Scalable Multi-Label Image Search [90.30623718137244]
スケーラブルなマルチラベル画像検索のための新しいディープハッシュ法を提案する。
2つの空間の類似性順序を整列するために、新しい階数整合性目的を適用した。
強力な損失関数は、意味的類似性とハミング距離が一致しないサンプルをペナルティ化するように設計されている。
論文 参考訳(メタデータ) (2021-02-02T13:46:58Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Generative Semantic Hashing Enhanced via Boltzmann Machines [61.688380278649056]
既存の生成ハッシュ法は、主に後部分布の分解形式を仮定する。
本稿では,ボルツマンマシンの分布を検索後部として利用することを提案する。
ハッシュコード内の異なるビット間の相関関係を効果的にモデル化することにより、我々のモデルは大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2020-06-16T01:23:39Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。