論文の概要: Ternary Hashing
- arxiv url: http://arxiv.org/abs/2103.09173v1
- Date: Tue, 16 Mar 2021 16:20:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:30:21.553326
- Title: Ternary Hashing
- Title(参考訳): 三元ハッシュ
- Authors: Kam Woh Ng, Chang Liu, Lixin Fan, Yilun Jin, Ce Ju, Tianyu Zhang, Chee
Seng Chan, Qiang Yang
- Abstract要約: 3次ハミング距離(THD)を計算するために2種類の公理3次論理を採用する
本研究は,標準バイナリマシン上での3次論理の効率的な実装により,提案した3次ハッシュ法を2次ハッシュ法と比較するものである。
- 参考スコア(独自算出の注目度): 34.88332691321493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel ternary hash encoding for learning to hash
methods, which provides a principled more efficient coding scheme with
performances better than those of the state-of-the-art binary hashing
counterparts. Two kinds of axiomatic ternary logic, Kleene logic and
{\L}ukasiewicz logic are adopted to calculate the Ternary Hamming Distance
(THD) for both the learning/encoding and testing/querying phases. Our work
demonstrates that, with an efficient implementation of ternary logic on
standard binary machines, the proposed ternary hashing is compared favorably to
the binary hashing methods with consistent improvements of retrieval mean
average precision (mAP) ranging from 1\% to 5.9\% as shown in CIFAR10, NUS-WIDE
and ImageNet100 datasets.
- Abstract(参考訳): 本稿では,ハッシュ法を学習するための新しい3次ハッシュ符号化を提案する。
学習/エンコーディングとテスト/検索の両方の3次ハミング距離(thd)を計算するために、2種類の公理的3次論理、kleene logic と {\l}ukasiewicz logicが採用されている。
提案手法は,cifar10,nus-wide,imagenet100のデータセットで示されるように,検索平均精度 (map) を1\%から5.9\%に一貫性を持たせたバイナリハッシュ手法と比較した。
関連論文リスト
- Representation Learning for Efficient and Effective Similarity Search
and Recommendation [6.280255585012339]
この論文は、より表現力のある表現とより効果的な類似度尺度を通じてハッシュコードの有効性を向上させる表現学習に貢献する。
コントリビューションは、類似性検索とレコメンデーションに関連するいくつかのタスクで実証的に検証される。
論文 参考訳(メタデータ) (2021-09-04T08:19:01Z) - Learning to Hash Robustly, with Guarantees [79.68057056103014]
本稿では,理論的アルゴリズムと本質的に一致する最悪ケース保証を持つハミング空間のためのNSアルゴリズムを設計する。
理論的にも実用的にも、与えられたデータセットに対してアルゴリズムが最適化できる能力を評価する。
我々のアルゴリズムは、MNISTおよびImageNetデータセットに対する最悪のパフォーマンスのクエリを、1.8倍と2.1倍の精度でリコールする。
論文 参考訳(メタデータ) (2021-08-11T20:21:30Z) - Online Hashing with Similarity Learning [31.372269816123996]
バイナリコードを更新せずに新しいオンラインハッシュフレームワークを提案する。
提案フレームワークでは、ハッシュ関数を固定し、バイナリコードに対するパラメトリック類似度関数をオンラインで学習する。
2つのマルチラベル画像データセットの実験により、我々の手法は最先端のオンラインハッシュ法より優れているか、優れていることが示された。
論文 参考訳(メタデータ) (2021-07-04T12:42:29Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Unsupervised Deep Cross-modality Spectral Hashing [65.3842441716661]
このフレームワークは、最適化をバイナリ最適化とハッシュ関数学習に分離する2段階のハッシュアプローチである。
本稿では,単一モダリティと二項相互モダリティを同時に学習するスペクトル埋め込みに基づく新しいアルゴリズムを提案する。
我々は、画像に強力なCNNを活用し、テキストモダリティを学ぶためのCNNベースのディープアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-08-01T09:20:11Z) - Unsupervised Semantic Hashing with Pairwise Reconstruction [22.641786533525245]
本稿では、離散変分オートエンコーダに基づくハッシュモデルであるPairwise Reconstruction(PairRec)を提案する。
PairRecと従来の手法と最先端の手法を実験的に比較し,文書類似性検索のタスクにおいて大幅な性能向上を実現した。
論文 参考訳(メタデータ) (2020-07-01T10:54:27Z) - Procrustean Orthogonal Sparse Hashing [3.302605292858623]
昆虫の嗅覚は, スパースハッシュと構造的に, 機能的に類似していることが示されている。
本稿ではこれらの知見を統一する新しい方法であるPOSH(Procrustean Orthogonal Sparse Hashing)を提案する。
本稿では,これらの欠陥に対処する2つの新しい手法,Binary OSLとSphericalHashを提案する。
論文 参考訳(メタデータ) (2020-06-08T18:09:33Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。