論文の概要: Learning Similarity Preserving Binary Codes for Recommender Systems
- arxiv url: http://arxiv.org/abs/2204.08569v1
- Date: Mon, 18 Apr 2022 21:33:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 15:10:50.914246
- Title: Learning Similarity Preserving Binary Codes for Recommender Systems
- Title(参考訳): Recommender システムのためのバイナリコードを保存する類似性学習
- Authors: Yang Shi and Young-joo Chung
- Abstract要約: 我々は、ハッシュベースのレコメンデータシステム、すなわち、コンパクトクロスシミラリティレコメンダ(CCSR)のための未探索モジュールの組み合わせについて研究する。
クロスモーダル検索にインスパイアされたCCSRは、行列分解や評価再構成の代わりにPosteriori類似性を利用して、ユーザとアイテム間のインタラクションをモデル化する。
MovieLens1Mデータセットでは、絶対的なパフォーマンス改善はNDCGが15.69%、リコールが4.29%である。
- 参考スコア(独自算出の注目度): 5.799838997511804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hashing-based Recommender Systems (RSs) are widely studied to provide
scalable services. The existing methods for the systems combine three modules
to achieve efficiency: feature extraction, interaction modeling, and
binarization. In this paper, we study an unexplored module combination for the
hashing-based recommender systems, namely Compact Cross-Similarity Recommender
(CCSR). Inspired by cross-modal retrieval, CCSR utilizes Maximum a Posteriori
similarity instead of matrix factorization and rating reconstruction to model
interactions between users and items. We conducted experiments on MovieLens1M,
Amazon product review, Ichiba purchase dataset and confirmed CCSR outperformed
the existing matrix factorization-based methods. On the Movielens1M dataset,
the absolute performance improvements are up to 15.69% in NDCG and 4.29% in
Recall. In addition, we extensively studied three binarization modules: $sign$,
scaled tanh, and sign-scaled tanh. The result demonstrated that although
differentiable scaled tanh is popular in recent discrete feature learning
literature, a huge performance drop occurs when outputs of scaled $tanh$ are
forced to be binary.
- Abstract(参考訳): ハッシュベースのRecommender Systems(RS)はスケーラブルなサービスを提供するために広く研究されている。
システムのための既存の手法は、3つのモジュールを組み合わせて効率性を実現している。
本稿では,ハッシュ方式のレコメンダシステムであるcompact cross- similarity recommender (ccsr) について,未検討モジュールの組み合わせについて検討する。
クロスモーダル検索にインスパイアされたccsrは、ユーザとアイテム間の相互作用をモデル化するために、マトリックス因子分解や評価再構成の代わりに最大後方類似性を利用する。
我々は,MovieLens1M,Amazon製品レビュー,一葉購入データセットの実験を行い,CCSRが既存の行列分解法よりも優れていることを確認した。
Movielens1Mデータセットでは、絶対的なパフォーマンス改善はNDCGが15.69%、リコールが4.29%である。
さらに,3つのバイナライゼーションモジュール,$sign$,scaled tanh, sign-scaled tanhについて検討した。
その結果、最近の離散的な特徴学習文献では微分可能スケールタンが人気であるが、スケールされた$tanh$の出力をバイナリにすると、大きなパフォーマンス低下が発生することがわかった。
関連論文リスト
- Finding Needles in Emb(a)dding Haystacks: Legal Document Retrieval via Bagging and SVR Ensembles [51.0691253204425]
本稿では,サポートベクタ回帰アンサンブル,ブートストラップアグリゲーション(バッグ),およびドイツ法情報検索データベース(GerDaLIR)への埋め込み空間を利用した検索手法を提案する。
投票アンサンブルを用いてベースライン上のリコールの改善を示し、トレーニングやディープラーニングモデルを微調整することなく、有望な初期結果を提案する。
論文 参考訳(メタデータ) (2025-01-09T07:21:44Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - DimeRec: A Unified Framework for Enhanced Sequential Recommendation via Generative Diffusion Models [39.49215596285211]
シークエンシャルレコメンデーション(SR:Sequential Recommendation)は、非定常的な歴史的相互作用に基づいてユーザの好みに合わせてレコメンデーションを調整することによって、レコメンデーションシステムにおいて重要な役割を担っている。
誘導抽出モジュール(GEM)と生成拡散凝集モジュール(DAM)を組み合わせたDimeRecという新しいフレームワークを提案する。
我々の数値実験により、DimeRecは3つの公開データセットで確立されたベースライン法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-08-22T06:42:09Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Binarized Spectral Compressive Imaging [59.18636040850608]
ハイパースペクトル画像(HSI)再構成のための既存のディープラーニングモデルは、優れた性能を実現するが、膨大なメモリと計算資源を持つ強力なハードウェアを必要とする。
本稿では,BiSRNet(Biarized Spectral-Redistribution Network)を提案する。
BiSRNetは,提案手法を用いてベースモデルのバイナライズを行う。
論文 参考訳(メタデータ) (2023-05-17T15:36:08Z) - UniASM: Binary Code Similarity Detection without Fine-tuning [2.2329530239800035]
モデルがバイナリコードの複雑なニュアンスをキャプチャすることを保証するために,新しいリッチ・セマンティック関数表現手法を提案する。
新たに設計された2つのトレーニングタスクを含むUniASMという,UniLMベースのバイナリコード埋め込みモデルを紹介した。
実験の結果,UniASMは評価データセットに対する最先端(SOTA)アプローチよりも優れていた。
論文 参考訳(メタデータ) (2022-10-28T14:04:57Z) - Modality-Aware Triplet Hard Mining for Zero-shot Sketch-Based Image
Retrieval [51.42470171051007]
本稿では,ZES-SBIR(Zero-Shot Sketch-Based Image Retrieval)問題に,クロスモダリティメトリック学習の観点から取り組む。
DMLにおける2つの基本的な学習手法、例えば分類訓練とペアトレーニングを組み合わせることで、ZS-SBIRの強力なベースラインを構築した。
モータリティ・アウェア・トリプルト・ハード・マイニング(MATHM)は3種類のペア・ラーニングによってベースラインを向上することを示す。
論文 参考訳(メタデータ) (2021-12-15T08:36:44Z) - Revisiting SVD to generate powerful Node Embeddings for Recommendation
Systems [3.388509725285237]
ユーザとアイテムの生成を埋め込むために,隣接行列の特異値分解(SVD)を再検討する。
これらの埋め込みの上に2層ニューラルネットワークを使用して、ユーザとイテムのペア間の関係を学習する。
GRLにおける高次学習の成功に触発されて,SVDの2ホップ隣人を含む手法の拡張を提案する。
論文 参考訳(メタデータ) (2021-10-05T20:41:21Z) - SPLADE v2: Sparse Lexical and Expansion Model for Information Retrieval [11.38022203865326]
SPLADEモデルは、最先端の高密度かつスパースなアプローチに関して、高度にスパースな表現と競争結果を提供する。
我々は、プール機構を変更し、文書拡張のみに基づいてモデルをベンチマークし、蒸留で訓練されたモデルを導入する。
全体として、SPLADEはTREC DL 2019のNDCG@10で9ドル以上のゲインで大幅に改善され、BEIRベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2021-09-21T10:43:42Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Few-shot Learning with LSSVM Base Learner and Transductive Modules [20.323443723115275]
計算オーバーヘッドの少ない既存のものよりも優れた生成を実現するベース学習機として,マルチクラス最小二乗支援ベクトルマシンを導入している。
また、クエリーサンプルを使用してサポートセットを変更する、シンプルで効果的なトランスダクティブモジュールを2つ提案する。
我々のモデルはFSLSTMと呼ばれ、MiniImageNetとCIFAR-FSによる数ショット学習ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-09-12T13:16:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。