論文の概要: When Newer is Not Better: Does Deep Learning Really Benefit
Recommendation From Implicit Feedback?
- arxiv url: http://arxiv.org/abs/2305.01801v1
- Date: Tue, 2 May 2023 22:03:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 16:30:45.387259
- Title: When Newer is Not Better: Does Deep Learning Really Benefit
Recommendation From Implicit Feedback?
- Title(参考訳): より新しいものが良くないとき: 深層学習は、不適切なフィードバックから推奨に相応しいか?
- Authors: Yushun Dong, Jundong Li, Tobias Schnabel
- Abstract要約: 最近のニューラルレコメンデーションモデルと従来のレコメンデーションモデルを、暗黙のデータからトップnのレコメンデーションで比較する。
我々の研究は、推奨されるニューラルモデルの相対的な利点とデメリットを照らす。
- 参考スコア(独自算出の注目度): 34.04060791716633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, neural models have been repeatedly touted to exhibit
state-of-the-art performance in recommendation. Nevertheless, multiple recent
studies have revealed that the reported state-of-the-art results of many neural
recommendation models cannot be reliably replicated. A primary reason is that
existing evaluations are performed under various inconsistent protocols.
Correspondingly, these replicability issues make it difficult to understand how
much benefit we can actually gain from these neural models. It then becomes
clear that a fair and comprehensive performance comparison between traditional
and neural models is needed.
Motivated by these issues, we perform a large-scale, systematic study to
compare recent neural recommendation models against traditional ones in top-n
recommendation from implicit data. We propose a set of evaluation strategies
for measuring memorization performance, generalization performance, and
subgroup-specific performance of recommendation models. We conduct extensive
experiments with 13 popular recommendation models (including two neural models
and 11 traditional ones as baselines) on nine commonly used datasets. Our
experiments demonstrate that even with extensive hyper-parameter searches,
neural models do not dominate traditional models in all aspects, e.g., they
fare worse in terms of average HitRate. We further find that there are areas
where neural models seem to outperform non-neural models, for example, in
recommendation diversity and robustness between different subgroups of users
and items. Our work illuminates the relative advantages and disadvantages of
neural models in recommendation and is therefore an important step towards
building better recommender systems.
- Abstract(参考訳): 近年、ニューラルモデルは推奨の最先端のパフォーマンスを示すために繰り返し宣伝されている。
しかし、近年の研究では、多くのニューラルレコメンデーションモデルの最新の結果が確実に複製できないことが判明している。
主な理由は、既存の評価が様々な不整合プロトコルの下で実行されることである。
それに応じて、これらの再現性問題は、これらのニューラルモデルから実際にどれだけの利益が得られるかを理解するのを難しくします。
そして、従来のモデルと神経モデルの公正で包括的なパフォーマンス比較が必要であることが明らかになった。
これらの課題に動機づけられ,近年のニューラル・レコメンデーションモデルと従来のニューラル・レコメンデーションモデルを比較するために,大規模かつ体系的な研究を行った。
本稿では,記憶性能,一般化性能,レコメンデーションモデルのサブグループ固有性能を測定するための評価戦略を提案する。
一般的な9つのデータセットに対して、13の一般的な推奨モデル(2つのニューラルモデルと11の従来モデルのベースラインを含む)で広範な実験を行います。
我々の実験は、広範にハイパーパラメーター探索を行っても、ニューラルネットワークがすべての面において従来のモデルを支配するわけではないことを示した。
さらに、ニューラルモデルは、例えば、ユーザーとアイテムの異なるサブグループ間の推薦の多様性と堅牢性において、非ニューラルモデルを上回っているように見える領域がある。
我々の研究は、推奨されるニューラルネットワークモデルの相対的な利点と欠点を照らし、より良い推奨システムを構築するための重要なステップである。
関連論文リスト
- Rethinking negative sampling in content-based news recommendation [1.5416095780642964]
ニュースレコメンデーターシステムは、記事の短い寿命によって妨げられている。
近年の研究では、この問題に対処するためのコンテンツベースニューラルネットワークの可能性が実証されている。
本研究では, 否定例の慎重なサンプリングが, モデルの結果に大きな影響を与えることを示唆する。
論文 参考訳(メタデータ) (2024-11-13T15:42:13Z) - Optimizing Dense Feed-Forward Neural Networks [0.0]
本稿では,プルーニングと移動学習に基づくフィードフォワードニューラルネットワークの構築手法を提案する。
提案手法では,パラメータ数を70%以上圧縮できる。
また、ニューラルネットワークをスクラッチからトレーニングしたモデルと元のモデルを比較し、トランスファー学習レベルを評価した。
論文 参考訳(メタデータ) (2023-12-16T23:23:16Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Cross-Model Comparative Loss for Enhancing Neuronal Utility in Language
Understanding [82.46024259137823]
幅広いタスクに対するクロスモデル比較損失を提案する。
3つの異なるNLUタスクから14のデータセットに対する広範な実験により比較損失の普遍的有効性を示す。
論文 参考訳(メタデータ) (2023-01-10T03:04:27Z) - Non-neural Models Matter: A Re-evaluation of Neural Referring Expression
Generation Systems [6.651864489482537]
近年、ニューラルモデルは、NLGにおけるルールベースや古典的な機械学習アプローチよりも優れています。
いくつかのタスクにおいて、よく設計された非神経アプローチは、ニューラルネットワークよりも優れたパフォーマンスを実現するため、それらを見落とすべきではない、と私たちは主張する。
論文 参考訳(メタデータ) (2022-03-15T21:47:25Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Have you tried Neural Topic Models? Comparative Analysis of Neural and
Non-Neural Topic Models with Application to COVID-19 Twitter Data [11.199249808462458]
我々は、最先端のニューラルモデルと非ニューラルトピックモデルの比較研究を行う。
ニューラルトピックモデルは、標準評価基準において従来のトピックよりも優れていることを示す。
また,モード崩壊問題に対処するために,ニューラルトピックモデルの新しい正規化項を提案する。
論文 参考訳(メタデータ) (2021-05-21T07:24:09Z) - A Survey on Neural Recommendation: From Collaborative Filtering to
Content and Context Enriched Recommendation [70.69134448863483]
レコメンデーションの研究は、ニューラルネットワークに基づく新しいレコメンダーモデルの発明にシフトした。
近年,神経リコメンデータモデルの開発が著しい進展を遂げている。
論文 参考訳(メタデータ) (2021-04-27T08:03:52Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。