論文の概要: Projected Hamming Dissimilarity for Bit-Level Importance Coding in
Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2103.14455v1
- Date: Fri, 26 Mar 2021 13:22:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 17:15:23.809414
- Title: Projected Hamming Dissimilarity for Bit-Level Importance Coding in
Collaborative Filtering
- Title(参考訳): 協調フィルタリングにおけるビットレベル重要符号化における投影ハミング相似性
- Authors: Christian Hansen, Casper Hansen, Jakob Grue Simonsen, Christina Lioma
- Abstract要約: 各次元の2重み付けによるハミング空間における2つの物体間の相似性を測定する新しい方法を示す。
本稿では,このハミング差分法に最適化されたハッシュコードを学習するための変分ハッシュモデルを提案する。
結果として得られるハッシュコードはNDCGで+7%、MRRで+14%の有効性向上につながります。
- 参考スコア(独自算出の注目度): 21.563733343861713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When reasoning about tasks that involve large amounts of data, a common
approach is to represent data items as objects in the Hamming space where
operations can be done efficiently and effectively. Object similarity can then
be computed by learning binary representations (hash codes) of the objects and
computing their Hamming distance. While this is highly efficient, each bit
dimension is equally weighted, which means that potentially discriminative
information of the data is lost. A more expressive alternative is to use
real-valued vector representations and compute their inner product; this allows
varying the weight of each dimension but is many magnitudes slower. To fix
this, we derive a new way of measuring the dissimilarity between two objects in
the Hamming space with binary weighting of each dimension (i.e., disabling
bits): we consider a field-agnostic dissimilarity that projects the vector of
one object onto the vector of the other. When working in the Hamming space,
this results in a novel projected Hamming dissimilarity, which by choice of
projection, effectively allows a binary importance weighting of the hash code
of one object through the hash code of the other. We propose a variational
hashing model for learning hash codes optimized for this projected Hamming
dissimilarity, and experimentally evaluate it in collaborative filtering
experiments. The resultant hash codes lead to effectiveness gains of up to +7%
in NDCG and +14% in MRR compared to state-of-the-art hashing-based
collaborative filtering baselines, while requiring no additional storage and no
computational overhead compared to using the Hamming distance.
- Abstract(参考訳): 大量のデータを含むタスクを推論する場合、一般的なアプローチは、データ項目を効率的に効率的に操作できるハミング空間のオブジェクトとして表現することである。
オブジェクトの類似性は、オブジェクトのバイナリ表現(ハッシュコード)を学習し、ハミング距離を計算することで計算できる。
これは非常に効率的であるが、各ビット次元は等しく重み付けされているため、データの識別情報が失われる可能性がある。
より表現力のある別の選択肢は、実数値ベクトル表現を使用し、その内積を計算することである。
これを解決するために、ハミング空間内の2つの対象間の相似性を各次元の2重み付けで測定する新しい方法(すなわち、解離ビット)を導出する: 他方の対象のベクトルを他方のベクトルに射影する場に依存しない相似性を考える。
ハミング空間で働くとき、これは、射影の選択によって、一方のオブジェクトのハッシュコードの重み付けを、もう一方のオブジェクトのハッシュコードを通して効果的に二項重み付けできる、ハミングの相似性(hamming dissimilarity)という新しいプロジェクションをもたらす。
本稿では,このハミング差分法に最適化されたハッシュコードを学習するための変分ハッシュモデルを提案し,協調フィルタリング実験において実験的に評価する。
その結果、ndcgでは最大+7%、mrでは+14%、最先端のハッシュベースの協調フィルタリングベースラインに比べて有効率が向上した。
関連論文リスト
- Sparse-Inductive Generative Adversarial Hashing for Nearest Neighbor
Search [8.020530603813416]
本稿では,Sparsity-induced Generative Adversarial Hashing (SiGAH)と呼ばれる新しい教師なしハッシュ法を提案する。
SiGAHは、大規模な高次元特徴をバイナリコードにエンコードする。
Tiny100K、GIST1M、Deep1M、MNISTの4つのベンチマーク実験の結果、提案されたSiGAHは最先端のアプローチよりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-06-12T08:07:23Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - Dimensionality Reduction for Categorical Data [0.9560980936110233]
FSketchを用いて、スパース分類データのスケッチを作成するとともに、ペアのハミング距離を推定する推定器を提案する。
FSketchは大幅に高速であり、そのスケッチを用いて得られる精度は、RMSE、クラスタリング、類似検索の標準的な教師なしタスクの上位にある。
論文 参考訳(メタデータ) (2021-12-01T09:20:28Z) - Meta Learning Low Rank Covariance Factors for Energy-Based Deterministic
Uncertainty [58.144520501201995]
ニューラルネットワーク層のBi-Lipschitz正規化は、各レイヤの特徴空間におけるデータインスタンス間の相対距離を保存する。
注意セットエンコーダを用いて,タスク固有の共分散行列を効率的に構築するために,対角的,対角的,低ランクな要素のメタ学習を提案する。
また,最終的な予測分布を達成するために,スケールしたエネルギーを利用する推論手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T22:04:19Z) - One Loss for All: Deep Hashing with a Single Cosine Similarity based
Learning Objective [86.48094395282546]
ディープハッシュモデルは通常、学習されたバイナリハッシュコードの識別と量子化エラーの最小化という2つの学習目標を持つ。
本稿では,1つの学習目的しか持たない新しい深層ハッシュモデルを提案する。
我々のモデルは,3つの大規模インスタンス検索ベンチマークにおいて,最先端のマルチロスハッシュモデルより優れている。
論文 参考訳(メタデータ) (2021-09-29T14:27:51Z) - Representation Learning for Efficient and Effective Similarity Search
and Recommendation [6.280255585012339]
この論文は、より表現力のある表現とより効果的な類似度尺度を通じてハッシュコードの有効性を向上させる表現学習に貢献する。
コントリビューションは、類似性検索とレコメンデーションに関連するいくつかのタスクで実証的に検証される。
論文 参考訳(メタデータ) (2021-09-04T08:19:01Z) - Learning Optical Flow from a Few Matches [67.83633948984954]
密な相関体積表現は冗長であり、その中の要素のほんの一部で正確なフロー推定が達成できることを示した。
実験により,高い精度を維持しつつ計算コストとメモリ使用量を大幅に削減できることを示した。
論文 参考訳(メタデータ) (2021-04-05T21:44:00Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Image Hashing by Minimizing Discrete Component-wise Wasserstein Distance [12.968141477410597]
競合するオートエンコーダは、バランスよく高品質なハッシュコードを生成する堅牢で局所性を保存するハッシュ関数を暗黙的に学習できることが示されている。
既存の逆ハッシュ法は、大規模な画像検索に非効率である。
本稿では,サンプル要求と計算コストを大幅に低減した,新しい対向型オートエンコーダハッシュ手法を提案する。
論文 参考訳(メタデータ) (2020-02-29T00:22:53Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。