論文の概要: beeFormer: Bridging the Gap Between Semantic and Interaction Similarity in Recommender Systems
- arxiv url: http://arxiv.org/abs/2409.10309v2
- Date: Tue, 08 Oct 2024 19:30:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 14:01:45.480850
- Title: beeFormer: Bridging the Gap Between Semantic and Interaction Similarity in Recommender Systems
- Title(参考訳): beeFormer: Recommenderシステムにおけるセマンティックとインタラクションの類似性のギャップを埋める
- Authors: Vojtěch Vančura, Pavel Kordík, Milan Straka,
- Abstract要約: beeFormerは、対話データを使った文変換モデルのトレーニングフレームワークである。
我々は、beeFormerでトレーニングされたモデルがデータセット間で知識を伝達できることを実証した。
また、異なるドメインから複数のデータセットをトレーニングすることで、単一のモデルに知識が蓄積されることを示す。
- 参考スコア(独自算出の注目度): 1.9451328614697951
- License:
- Abstract: Recommender systems often use text-side information to improve their predictions, especially in cold-start or zero-shot recommendation scenarios, where traditional collaborative filtering approaches cannot be used. Many approaches to text-mining side information for recommender systems have been proposed over recent years, with sentence Transformers being the most prominent one. However, these models are trained to predict semantic similarity without utilizing interaction data with hidden patterns specific to recommender systems. In this paper, we propose beeFormer, a framework for training sentence Transformer models with interaction data. We demonstrate that our models trained with beeFormer can transfer knowledge between datasets while outperforming not only semantic similarity sentence Transformers but also traditional collaborative filtering methods. We also show that training on multiple datasets from different domains accumulates knowledge in a single model, unlocking the possibility of training universal, domain-agnostic sentence Transformer models to mine text representations for recommender systems. We release the source code, trained models, and additional details allowing replication of our experiments at https://github.com/recombee/beeformer.
- Abstract(参考訳): 特にコールドスタートやゼロショットのレコメンデーションシナリオでは、従来の協調フィルタリング手法では使用できない。
近年、レコメンデータシステムのためのテキストマイニングサイド情報に対する多くのアプローチが提案されており、文変換器が最も顕著である。
しかし、これらのモデルは、レコメンデータシステム固有の隠れパターンとの相互作用データを活用することなく、意味的類似性を予測できるように訓練されている。
本稿では,対話データを用いた文変換モデルの学習フレームワークであるbeeFormerを提案する。
我々は、beeFormerでトレーニングされたモデルが、セマンティック類似性文トランスフォーマーだけでなく、従来の協調フィルタリング手法よりも優れた性能を発揮しながら、データセット間で知識を伝達できることを実証した。
また、異なるドメインからの複数のデータセットのトレーニングは、単一のモデルに知識を蓄積し、リコメンデータシステムのためのテキスト表現をマイニングするための、普遍的でドメインに依存しない文のトレーニングを可能にすることを示す。
ソースコード、トレーニングされたモデル、追加の詳細はhttps://github.com/recombee/beeformer.comで公開しています。
関連論文リスト
- Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Pre-trained Recommender Systems: A Causal Debiasing Perspective [19.712997823535066]
本研究では,異なるドメインから抽出した汎用ユーザ・イテムインタラクションデータをトレーニングすることで,ユニバーサルインタラクションパターンをキャプチャする汎用レコメンデータを開発する。
実験により,提案モデルにより,ゼロショットと少数ショットの学習環境での推薦性能が大幅に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-30T03:37:32Z) - Federated Privacy-preserving Collaborative Filtering for On-Device Next
App Prediction [52.16923290335873]
本稿では,モバイルデバイス使用時の次のアプリの起動を予測するための新しいSeqMFモデルを提案する。
古典行列分解モデルの構造を修正し、学習手順を逐次学習に更新する。
提案手法のもうひとつの要素は,ユーザからリモートサーバへの送信データの保護を保証する,新たなプライバシメカニズムである。
論文 参考訳(メタデータ) (2023-02-05T10:29:57Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Improving Sequential Query Recommendation with Immediate User Feedback [6.925738064847176]
本稿では,対話型データ探索設定における次のクエリレコメンデーションのためのアルゴリズムを提案する。
人気のあるオンライン文献発見サービスからログファイルを用いて大規模な実験を行った。
論文 参考訳(メタデータ) (2022-05-12T18:19:24Z) - Few-shot learning through contextual data augmentation [74.20290390065475]
機械翻訳モデルは、時間とともに性能を維持するために新しいデータに適応する必要がある。
一つの例から5つの例への適応が可能であることを示す。
本モデルでは,平均313個の並列例でトレーニングした基準システムよりも精度がよいことを示す。
論文 参考訳(メタデータ) (2021-03-31T09:05:43Z) - Transformer Based Multi-Source Domain Adaptation [53.24606510691877]
実践的な機械学習設定では、モデルを予測しなければならないデータは、トレーニングされたデータとは異なる分布から生まれることが多い。
本稿では、複数のソースドメインからラベル付きデータに基づいてモデルを訓練し、ラベル付きデータが見られないドメイン上で予測を行う、教師なしマルチソースドメイン適応の問題について検討する。
本研究では,大規模な事前学習型変圧器を用いたドメインエキスパートの予測が極めて均質であることを示し,それらの予測を混在させる効果的な関数の学習を困難にしている。
論文 参考訳(メタデータ) (2020-09-16T16:56:23Z) - TERA: Self-Supervised Learning of Transformer Encoder Representation for
Speech [63.03318307254081]
TERA は Transformer Representations from Alteration の略である。
我々は3つの軸に沿った変形を用いて、大量のラベルなし音声でトランスフォーマーを事前訓練する。
TERAは、音声表現の抽出や下流モデルによる微調整に使用することができる。
論文 参考訳(メタデータ) (2020-07-12T16:19:00Z) - Feature Interaction Interpretability: A Case for Explaining
Ad-Recommendation Systems via Neural Interaction Detection [14.37985060340549]
ブラックボックスレコメンデータシステムの予測を解釈・拡張する手法を提案する。
また,レコメンデータシステムの構造を仮定しないので,一般的な設定で利用することができる。
論文 参考訳(メタデータ) (2020-06-19T05:14:34Z) - SimEx: Express Prediction of Inter-dataset Similarity by a Fleet of
Autoencoders [13.55607978839719]
データの集合間の類似性を知ることは、効果的なモデルのトレーニングに多くの肯定的な意味を持つ。
事前訓練されたオートエンコーダのセットを用いて,データセット間の類似性を早期に予測する手法であるSimExを提案する。
本手法は,共通類似度推定手法と比較して,データセット間類似度予測において10倍以上の高速化を実現する。
論文 参考訳(メタデータ) (2020-01-14T16:52:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。