論文の概要: Binary Representation via Jointly Personalized Sparse Hashing
- arxiv url: http://arxiv.org/abs/2208.14883v1
- Date: Wed, 31 Aug 2022 14:18:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:32:31.455945
- Title: Binary Representation via Jointly Personalized Sparse Hashing
- Title(参考訳): 共同パーソナライズされたスパースハッシュによるバイナリ表現
- Authors: Xiaoqin Wang, Chen Chen, Rushi Lan, Licheng Liu, Zhenbing Liu, Huiyu
Zhou and Xiaonan Luo
- Abstract要約: 二元表現学習のための効果的な教師なし手法、すなわち、共同パーソナライズされたスパースハッシュ(JPSH)を提案する。
異なるパーソナライズされたサブスペースは、異なるクラスタのカテゴリ固有の属性を反映するように構成される。
JPSHにおける意味とペアの類似性を同時に保存するために,PSHと多様体に基づくハッシュ学習をシームレスな定式化に組み込む。
- 参考スコア(独自算出の注目度): 22.296464665032588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised hashing has attracted much attention for binary representation
learning due to the requirement of economical storage and efficiency of binary
codes. It aims to encode high-dimensional features in the Hamming space with
similarity preservation between instances. However, most existing methods learn
hash functions in manifold-based approaches. Those methods capture the local
geometric structures (i.e., pairwise relationships) of data, and lack
satisfactory performance in dealing with real-world scenarios that produce
similar features (e.g. color and shape) with different semantic information. To
address this challenge, in this work, we propose an effective unsupervised
method, namely Jointly Personalized Sparse Hashing (JPSH), for binary
representation learning. To be specific, firstly, we propose a novel
personalized hashing module, i.e., Personalized Sparse Hashing (PSH). Different
personalized subspaces are constructed to reflect category-specific attributes
for different clusters, adaptively mapping instances within the same cluster to
the same Hamming space. In addition, we deploy sparse constraints for different
personalized subspaces to select important features. We also collect the
strengths of the other clusters to build the PSH module with avoiding
over-fitting. Then, to simultaneously preserve semantic and pairwise
similarities in our JPSH, we incorporate the PSH and manifold-based hash
learning into the seamless formulation. As such, JPSH not only distinguishes
the instances from different clusters, but also preserves local neighborhood
structures within the cluster. Finally, an alternating optimization algorithm
is adopted to iteratively capture analytical solutions of the JPSH model.
Extensive experiments on four benchmark datasets verify that the JPSH
outperforms several hashing algorithms on the similarity search task.
- Abstract(参考訳): 教師なしハッシュは、経済的記憶とバイナリコードの効率が要求されるため、バイナリ表現学習に大きな注目を集めている。
ハムミング空間の高次元特徴を、インスタンス間の類似性保存でエンコードすることを目的としている。
しかし、既存のほとんどのメソッドは多様体ベースのアプローチでハッシュ関数を学習する。
これらの手法はデータの局所的な幾何学的構造(すなわちペア関係)を捉え、異なる意味情報で類似した特徴(色と形)を生成する現実世界のシナリオを扱うのに十分な性能を欠いている。
この課題に対処するため,本研究では,バイナリ表現学習のための効果的な非教師なし手法,すなわちjpsh(jointly personal sparse hashing)を提案する。
まず,パーソナライズされたパーソナライズされたハッシュモジュール,すなわちパーソナライズされたスパースハッシュ(PSH)を提案する。
異なるパーソナライズされたサブスペースは、異なるクラスタのカテゴリ固有の属性を反映するように構成され、同一クラスタ内のインスタンスを同じハミング空間に適応的にマッピングする。
さらに、異なるパーソナライズされたサブスペースに対するスパース制約をデプロイし、重要な機能を選択する。
PSHモジュールを構築するために,他のクラスタの強度も収集しています。
そして,JPSHにおける意味的・対の類似性を同時に保存するために,PSHと多様体に基づくハッシュ学習をシームレスな定式化に組み込む。
そのため、JPSHはインスタンスを異なるクラスタから区別するだけでなく、クラスタ内の局所的な近傍構造も保持する。
最後に、jpshモデルの解析解を反復的に捉えるために交互最適化アルゴリズムを採用する。
4つのベンチマークデータセットに対する大規模な実験により、JPSHは類似性検索タスクにおいていくつかのハッシュアルゴリズムより優れていることが確認された。
関連論文リスト
- Attributes Grouping and Mining Hashing for Fine-Grained Image Retrieval [24.8065557159198]
微粒な画像検索のための属性グループとマイニングハッシュ(AGMH)を提案する。
AGMHはカテゴリ固有の視覚属性を複数の記述子にグループ化し、包括的特徴表現を生成する。
AGMHは、きめ細かいベンチマークデータセットの最先端メソッドに対して、一貫して最高のパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-11-10T14:01:56Z) - Sparse-Inductive Generative Adversarial Hashing for Nearest Neighbor
Search [8.020530603813416]
本稿では,Sparsity-induced Generative Adversarial Hashing (SiGAH)と呼ばれる新しい教師なしハッシュ法を提案する。
SiGAHは、大規模な高次元特徴をバイナリコードにエンコードする。
Tiny100K、GIST1M、Deep1M、MNISTの4つのベンチマーク実験の結果、提案されたSiGAHは最先端のアプローチよりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-06-12T08:07:23Z) - Unsupervised Hashing with Similarity Distribution Calibration [127.34239817201549]
教師なしハッシュ法は、特徴空間内のデータポイント間の類似性をバイナリハッシュコードにマッピングすることで保存することを目的としている。
これらの方法は、連続的な特徴空間におけるデータポイント間の類似性が離散的なハッシュコード空間に保存されないという事実をしばしば見落としている。
類似性範囲はコードの長さによって制限され、類似性崩壊と呼ばれる問題を引き起こす可能性がある。
本稿では,この問題を緩和する新しい類似度分布法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:06:39Z) - CoopHash: Cooperative Learning of Multipurpose Descriptor and
Contrastive Pair Generator via Variational MCMC Teaching for Supervised Image
Hashing [43.18376656743935]
GAN(Generative Adversarial Networks)のような生成モデルは、画像ハッシュモデルで合成データを生成することができる。
GANは訓練が困難であり、モード崩壊の問題に悩まされるため、ハッシュアプローチが生成モデルとハッシュ関数を共同で訓練するのを防ぐことができる。
本稿では,エネルギーをベースとした協調学習を基盤とした新しい協調ハッシュネットワーク(CoopHash)を提案する。
論文 参考訳(メタデータ) (2022-10-09T15:42:36Z) - Asymmetric Transfer Hashing with Adaptive Bipartite Graph Learning [95.54688542786863]
既存のハッシュ法では、クエリと検索サンプルは同じドメイン内の同質な特徴空間にあると仮定する。
教師なし/半教師付き/教師付き実現のための非対称トランスファーハッシュ(ATH)フレームワークを提案する。
非対称ハッシュ関数と二部グラフを共同最適化することにより、知識伝達が達成できるだけでなく、特徴アライメントによる情報損失も回避できる。
論文 参考訳(メタデータ) (2022-06-25T08:24:34Z) - Index $t$-SNE: Tracking Dynamics of High-Dimensional Datasets with
Coherent Embeddings [1.7188280334580195]
本稿では,クラスタの位置を保存した新しいものを作成するために,埋め込みを再利用する手法を提案する。
提案アルゴリズムは,新しい項目を埋め込むために$t$-SNEと同じ複雑さを持つ。
論文 参考訳(メタデータ) (2021-09-22T06:45:37Z) - Hash Layers For Large Sparse Models [48.90784451703753]
フィードフォワード層を現在のトークンによって異なる重みのセットにハッシュし、シーケンス内のすべてのトークンに対して変更する。
本手法は, 学習と学習の混合手法に比較して, 性能が優れているか, あるいは競争的であるかを示す。
論文 参考訳(メタデータ) (2021-06-08T14:54:24Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Hashing with Hash-Consistent Large Margin Proxy Embeddings [65.36757931982469]
画像ハッシュコードは、分類または検索のために訓練された畳み込みニューラルネットワーク(CNN)の埋め込みをバイナライズすることによって生成される。
この曖昧さを解消するために、固定されたプロキシ(CNN分類層の重み)の使用が提案されている。
得られたHCLMプロキシはハッシュ単位の飽和を促進することが示され、小さな二項化誤差が保証される。
論文 参考訳(メタデータ) (2020-07-27T23:47:43Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。