論文の概要: Interact2Vec -- An efficient neural network-based model for simultaneously learning users and items embeddings in recommender systems
- arxiv url: http://arxiv.org/abs/2506.22648v1
- Date: Fri, 27 Jun 2025 21:30:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.500603
- Title: Interact2Vec -- An efficient neural network-based model for simultaneously learning users and items embeddings in recommender systems
- Title(参考訳): Interact2Vec -- 推薦システムへのユーザとアイテムの埋め込みを同時に学習するための、効率的なニューラルネットワークベースのモデル
- Authors: Pedro R. Pires, Tiago A. Almeida,
- Abstract要約: 本稿では,ユーザとアイテムの分散埋め込みを同時に学習するニューラルネットワークモデルを提案する。
このモデルは、自然言語処理モデルがトレーニングフェーズを最適化し、最終的な埋め込みを強化するために一般的に使用する最先端の戦略を採用している。
- 参考スコア(独自算出の注目度): 1.0819408603463425
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Over the past decade, recommender systems have experienced a surge in popularity. Despite notable progress, they grapple with challenging issues, such as high data dimensionality and sparseness. Representing users and items as low-dimensional embeddings learned via neural networks has become a leading solution. However, while recent studies show promising results, many approaches rely on complex architectures or require content data, which may not always be available. This paper presents Interact2Vec, a novel neural network-based model that simultaneously learns distributed embeddings for users and items while demanding only implicit feedback. The model employs state-of-the-art strategies that natural language processing models commonly use to optimize the training phase and enhance the final embeddings. Two types of experiments were conducted regarding the extrinsic and intrinsic quality of the model. In the former, we benchmarked the recommendations generated by Interact2Vec's embeddings in a top-$N$ ranking problem, comparing them with six other recommender algorithms. The model achieved the second or third-best results in 30\% of the datasets, being competitive with other recommenders, and has proven to be very efficient with an average training time reduction of 274\% compared to other embedding-based models. Later, we analyzed the intrinsic quality of the embeddings through similarity tables. Our findings suggest that Interact2Vec can achieve promising results, especially on the extrinsic task, and is an excellent embedding-generator model for scenarios of scarce computing resources, enabling the learning of item and user embeddings simultaneously and efficiently.
- Abstract(参考訳): 過去10年間、レコメンデーターシステムは人気が高まってきた。
顕著な進歩にもかかわらず、データ次元やスパースネスといった問題に悩まされている。
ニューラルネットワークで学習した低次元の埋め込みとしてユーザとアイテムを表現することが、主要なソリューションとなっている。
しかし、最近の研究は有望な結果を示しているが、多くのアプローチは複雑なアーキテクチャに依存するか、コンテンツデータを必要とする。
本稿では,ユーザやアイテムに対する分散埋め込みを同時に学習し,暗黙的なフィードバックのみを要求するニューラルネットワークベースの新しいモデルであるInteract2Vecを提案する。
このモデルは、自然言語処理モデルがトレーニングフェーズを最適化し、最終的な埋め込みを強化するために一般的に使用する最先端の戦略を採用している。
モデルの外生的および内生的品質に関する2種類の実験を行った。
前者では、Interact2Vecの埋め込みによって生成されたレコメンデーションを上位$N$のランキング問題でベンチマークし、他の6つのレコメンデーションアルゴリズムと比較した。
このモデルはデータセットの30\%で2番目または3番目の結果を達成し、他のレコメンデーションと競合し、他の埋め込みモデルと比較して平均トレーニング時間の274\%で非常に効率的であることが証明された。
後日、類似度表を用いて、埋め込みの本質的な品質を解析した。
この結果から、Interact2Vecは、特に外在的タスクにおいて有望な結果が得られることが示唆され、少ない計算資源のシナリオに対して優れた埋め込み生成モデルであり、アイテムとユーザ埋め込みの同時かつ効率的な学習を可能にしている。
関連論文リスト
- A Two-Phase Recall-and-Select Framework for Fast Model Selection [13.385915962994806]
本稿では,2相モデル選択フレームワークを提案する。
これは、ベンチマークデータセット上でモデルのトレーニングパフォーマンスを活用することにより、堅牢なモデルを選択する効率を高めることを目的としている。
提案手法は,従来のベースライン法に比べて約3倍の速度でハイパフォーマンスモデルの選択を容易にすることが実証された。
論文 参考訳(メタデータ) (2024-03-28T14:44:44Z) - Optimizing Dense Feed-Forward Neural Networks [0.0]
本稿では,プルーニングと移動学習に基づくフィードフォワードニューラルネットワークの構築手法を提案する。
提案手法では,パラメータ数を70%以上圧縮できる。
また、ニューラルネットワークをスクラッチからトレーニングしたモデルと元のモデルを比較し、トランスファー学習レベルを評価した。
論文 参考訳(メタデータ) (2023-12-16T23:23:16Z) - Generative Forests [23.554594285885273]
私たちは、表データという最も一般的な形式のデータのうちの1つを表わすデータのための生成AIに焦点を合わせています。
本稿では,このような課題に適合する森林モデルの新しい強力なクラスと,強力な収束保証を備えた簡単なトレーニングアルゴリズムを提案する。
これらのタスクに関する追加実験により、我々のモデルは、多種多様な技術手法に対する優れた競争相手になり得ることが判明した。
論文 参考訳(メタデータ) (2023-08-07T14:58:53Z) - Layer-wise Linear Mode Connectivity [52.6945036534469]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識の直感的な方法である。
フェデレートラーニングにおいて最も顕著に用いられている。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Learning Deep Representation with Energy-Based Self-Expressiveness for
Subspace Clustering [24.311754971064303]
本稿では,エネルギーモデルに基づく新しい深部サブスペースクラスタリングフレームワークを提案する。
最近普及している自己教師型学習の強力な表現能力を考えると、自己教師型表現学習を利用して辞書を学習しようとする。
論文 参考訳(メタデータ) (2021-10-28T11:51:08Z) - A Survey on Neural Recommendation: From Collaborative Filtering to
Content and Context Enriched Recommendation [70.69134448863483]
レコメンデーションの研究は、ニューラルネットワークに基づく新しいレコメンダーモデルの発明にシフトした。
近年,神経リコメンデータモデルの開発が著しい進展を遂げている。
論文 参考訳(メタデータ) (2021-04-27T08:03:52Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。