論文の概要: Hashing Learning with Hyper-Class Representation
- arxiv url: http://arxiv.org/abs/2206.02334v1
- Date: Mon, 6 Jun 2022 03:35:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 06:10:45.491872
- Title: Hashing Learning with Hyper-Class Representation
- Title(参考訳): ハイパークラス表現によるハッシュ学習
- Authors: Shichao Zhang and Jiaye Li
- Abstract要約: 既存の教師なしハッシュ学習は属性中心の計算の一種である。
データ間の類似性を正確に保存することはできない。
本稿では,超クラス表現を用いたハッシュアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 8.206031417113987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing unsupervised hash learning is a kind of attribute-centered
calculation. It may not accurately preserve the similarity between data. This
leads to low down the performance of hash function learning. In this paper, a
hash algorithm is proposed with a hyper-class representation. It is a two-steps
approach. The first step finds potential decision features and establish
hyper-class. The second step constructs hash learning based on the hyper-class
information in the first step, so that the hash codes of the data within the
hyper-class are as similar as possible, as well as the hash codes of the data
between the hyper-classes are as different as possible. To evaluate the
efficiency, a series of experiments are conducted on four public datasets. The
experimental results show that the proposed hash algorithm is more efficient
than the compared algorithms, in terms of mean average precision (MAP), average
precision (AP) and Hamming radius 2 (HAM2)
- Abstract(参考訳): 既存の教師なしハッシュ学習は属性中心の計算の一種である。
データ間の類似性を正確に保存することはできない。
これにより、ハッシュ関数学習のパフォーマンスが低下する。
本稿では,ハイパークラス表現を用いたハッシュアルゴリズムを提案する。
2段階のアプローチである。
最初のステップは潜在的な決定機能を見つけ、ハイパークラスを確立することである。
第2のステップは、第1のステップにおいて、ハイパークラス情報に基づいてハッシュ学習を構築し、ハイパークラス内のデータのハッシュコードが可能な限り類似し、ハイパークラス間のデータのハッシュコードが可能な限り異なるように構成する。
効率を評価するために、4つの公開データセットで一連の実験を行う。
実験の結果,提案したハッシュアルゴリズムは平均平均精度(MAP),平均精度(AP),ハミング半径(HAM2)で比較したアルゴリズムよりも効率的であることがわかった。
関連論文リスト
- Unified Functional Hashing in Automatic Machine Learning [58.77232199682271]
高速に統一された関数型ハッシュを用いることで,大きな効率向上が得られることを示す。
私たちのハッシュは"機能的"であり、表現やコードが異なる場合でも同等の候補を識別します。
ニューラルアーキテクチャ検索やアルゴリズム発見など、複数のAutoMLドメインで劇的な改善がなされている。
論文 参考訳(メタデータ) (2023-02-10T18:50:37Z) - A Lower Bound of Hash Codes' Performance [122.88252443695492]
本稿では,ハッシュ符号間のクラス間の差分性とクラス内圧縮性が,ハッシュ符号の性能の低い境界を決定することを証明する。
次に、ハッシュコードの後部を推定し、それを制御することにより、上記の目的を完全に活用する代理モデルを提案し、低バイアス最適化を実現する。
一連のハッシュモデルをテストすることで、平均精度が最大で26.5%、精度が最大で20.5%向上した。
論文 参考訳(メタデータ) (2022-10-12T03:30:56Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - Learning to Hash Naturally Sorts [84.90210592082829]
そこで我々はNaturely-Sorted Hashing (NSH)を導入し,最終結果のソートによる深層ハッシュモデルのトレーニングを行った。
NSHはサンプルのハッシュコードのハミング距離をソートし、それに従って自己教師付きトレーニングのための潜伏した表現を収集する。
Sorted Noise-Contrastive Estimation (SortedNCE) の新たな損失について述べる。
論文 参考訳(メタデータ) (2022-01-31T16:19:02Z) - Deep Self-Adaptive Hashing for Image Retrieval [16.768754022585057]
2つの特殊設計で意味情報を適応的にキャプチャするtextbfDeep Self-Adaptive Hashing(DSAH)モデルを提案する。
まず,近辺型類似度行列を構築し,その初期類似度行列を新しい更新戦略で改良する。
第2に、PICを用いたデータペアの優先度を測定し、それらに適応重みを割り当てる。これは、より異種なデータペアがハッシュ学習のためのより差別的な情報を含んでいるという仮定に依存する。
論文 参考訳(メタデータ) (2021-08-16T13:53:20Z) - Online Hashing with Similarity Learning [31.372269816123996]
バイナリコードを更新せずに新しいオンラインハッシュフレームワークを提案する。
提案フレームワークでは、ハッシュ関数を固定し、バイナリコードに対するパラメトリック類似度関数をオンラインで学習する。
2つのマルチラベル画像データセットの実験により、我々の手法は最先端のオンラインハッシュ法より優れているか、優れていることが示された。
論文 参考訳(メタデータ) (2021-07-04T12:42:29Z) - Unsupervised Multi-Index Semantic Hashing [23.169142004594434]
マルチインデックスハッシュに最適化することで,効率的かつ高効率なハッシュコードを学習する教師なしハッシュモデルを提案する。
文書類似度検索のタスクにおいて、MISHと最先端のセマンティックハッシュベースラインを実験的に比較する。
マルチインデックスハッシュは、線形スキャンと比較してベースラインの効率も向上しますが、MISHよりも33%遅くなっています。
論文 参考訳(メタデータ) (2021-03-26T13:33:48Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Deep Momentum Uncertainty Hashing [65.27971340060687]
我々は,新しいDeep Momentum Uncertainity Hashing (DMUH)を提案する。
トレーニング中の不確実性を明示的に推定し、不確実性情報を利用して近似過程を導出する。
提案手法は,すべてのデータセット上で最高の性能を達成し,既存の最先端手法を大きなマージンで超越する。
論文 参考訳(メタデータ) (2020-09-17T01:57:45Z) - Image Hashing by Minimizing Discrete Component-wise Wasserstein Distance [12.968141477410597]
競合するオートエンコーダは、バランスよく高品質なハッシュコードを生成する堅牢で局所性を保存するハッシュ関数を暗黙的に学習できることが示されている。
既存の逆ハッシュ法は、大規模な画像検索に非効率である。
本稿では,サンプル要求と計算コストを大幅に低減した,新しい対向型オートエンコーダハッシュ手法を提案する。
論文 参考訳(メタデータ) (2020-02-29T00:22:53Z) - A Novel Incremental Cross-Modal Hashing Approach [21.99741793652628]
我々は「iCMH」と呼ばれる新しい漸進的クロスモーダルハッシュアルゴリズムを提案する。
提案手法は,ハッシュコードを学習し,ハッシュ関数を訓練する2つの段階からなる。
さまざまなクロスモーダルデータセットの実験と最先端のクロスモーダルアルゴリズムとの比較は、我々のアプローチの有用性を示している。
論文 参考訳(メタデータ) (2020-02-03T12:34:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。