論文の概要: Rethinking Neural vs. Matrix-Factorization Collaborative Filtering: the
Theoretical Perspectives
- arxiv url: http://arxiv.org/abs/2110.12141v1
- Date: Sat, 23 Oct 2021 04:55:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 17:37:37.624257
- Title: Rethinking Neural vs. Matrix-Factorization Collaborative Filtering: the
Theoretical Perspectives
- Title(参考訳): ニューラルネットワーク対マトリックスベクトル化協調フィルタリングの再考:理論的展望
- Authors: Da Xu, Chuanwei Ruan, Evren Korpeoglu, Sushant Kumar, Kannan Achan
- Abstract要約: 最近の研究は、行列分解協調フィルタリング(MCF)がニューラルコラボレーティブフィルタリング(NCF)と好意的に比較していると主張している。
本稿では,以下の質問に答えることで,比較を厳格に解決する。
- 参考スコア(独自算出の注目度): 18.204325860752768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent work by Rendle et al. (2020), based on empirical observations,
argues that matrix-factorization collaborative filtering (MCF) compares
favorably to neural collaborative filtering (NCF), and conjectures the dot
product's superiority over the feed-forward neural network as similarity
function. In this paper, we address the comparison rigorously by answering the
following questions: 1. what is the limiting expressivity of each model; 2.
under the practical gradient descent, to which solution does each optimization
path converge; 3. how would the models generalize under the inductive and
transductive learning setting. Our results highlight the similar expressivity
for the overparameterized NCF and MCF as kernelized predictors, and reveal the
relation between their optimization paths. We further show their different
generalization behaviors, where MCF and NCF experience specific tradeoff and
comparison in the transductive and inductive collaborative filtering setting.
Lastly, by showing a novel generalization result, we reveal the critical role
of correcting exposure bias for model evaluation in the inductive setting. Our
results explain some of the previously observed conflicts, and we provide
synthetic and real-data experiments to shed further insights to this topic.
- Abstract(参考訳): Rendleらによる最近の研究は経験的観察に基づいており、行列分解協調フィルタリング(MCF)はニューラルコラボレーティブフィルタリング(NCF)と好意的に比較し、類似性関数としてフィードフォワードニューラルネットワークよりもドット積の方が優れていると推測している。
本稿では,以下の質問に答えることで,この比較を厳格に解決する。
1.各モデルの限定表現性とは何か
2. 現実的な勾配勾配下降の下で、各最適化経路が収束する解
3. インダクティブ・トランスダクティブ・ラーニング・セッティングの下でモデルをどのように一般化するか。
本結果は,カーネル化予測器として過パラメータNCFとMCFの類似表現性を強調し,最適化経路の関係を明らかにする。
さらに, MCF と NCF は, 直接的および帰納的協調フィルタリング設定において, 特定のトレードオフと比較を経験する。
最後に,新しい一般化結果を示すことで,モデル評価における被曝バイアスを補正する重要な役割を明らかにする。
以上の結果から,前述した矛盾のいくつかを説明し,このトピックに対するさらなる洞察を得るため,合成および実データ実験を行う。
関連論文リスト
- Confronting Reward Overoptimization for Diffusion Models: A Perspective of Inductive and Primacy Biases [76.9127853906115]
拡散モデルと人間の嗜好のギャップを埋めることが、実用的生成への統合に不可欠である。
本稿では,拡散モデルの時間的帰納バイアスを利用したポリシー勾配アルゴリズムTDPO-Rを提案する。
実験の結果,報酬過小評価を緩和する手法が有効であることが示された。
論文 参考訳(メタデータ) (2024-02-13T15:55:41Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - CausalLM is not optimal for in-context learning [21.591451511589693]
最近の経験的証拠は、プレフィックス言語モデル(LM)を用いる場合、コンテクスト内学習に基づくトランスフォーマーがより優れていることを示している。
この結果は直感的であるが、理論的には理解されていない。
本研究では,あるパラメータ構成の下で,プレフィックスLMと因果LMの収束挙動を理論的に解析する。
論文 参考訳(メタデータ) (2023-08-14T03:14:38Z) - How Tempering Fixes Data Augmentation in Bayesian Neural Networks [22.188535244056016]
テンパリングは、拡張のモデリングから生じる誤特定を暗黙的に減らし、すなわちデータとして示す。
温度は有効サンプルサイズの役割を模倣し、増強によって提供される情報の利得を反映している。
論文 参考訳(メタデータ) (2022-05-27T11:06:56Z) - Optimal regularizations for data generation with probabilistic graphical
models [0.0]
経験的に、よく調和された正規化スキームは、推論されたモデルの品質を劇的に改善する。
生成的ペアワイドグラフィカルモデルの最大Aポストエリオーリ(MAP)推論におけるL2とL1の正規化について検討する。
論文 参考訳(メタデータ) (2021-12-02T14:45:16Z) - Reenvisioning Collaborative Filtering vs Matrix Factorization [65.74881520196762]
近年,行列因数分解に基づく協調フィルタリングモデルや,ニューラルネットワーク(ANN)を用いた類似性の学習が注目されている。
推薦エコシステム内でのANNの発表が最近疑問視され、効率性と有効性に関していくつかの比較がなされている。
本研究では,これらの手法が相補的評価次元に与える影響を解析しながら,超精度評価にもたらす可能性を示す。
論文 参考訳(メタデータ) (2021-07-28T16:29:38Z) - Loss function based second-order Jensen inequality and its application
to particle variational inference [112.58907653042317]
粒子変分推論(PVI)は、後部分布の実験的近似としてモデルのアンサンブルを用いる。
PVIは、最適化されたモデルの多様性を保証するために、各モデルを反発力で反復的に更新する。
我々は,新たな一般化誤差を導出し,モデルの多様性を高めて低減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T12:13:51Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization [39.35822033674126]
生成ガウス混合モデルに基づく二項線形分類について検討する。
後者の分類誤差に関する新しい非漸近境界を導出する。
この結果は, 確率が一定である雑音モデルに拡張される。
論文 参考訳(メタデータ) (2020-11-18T07:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。