論文の概要: NeuSE: A Neural Snapshot Ensemble Method for Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2104.07269v1
- Date: Thu, 15 Apr 2021 06:43:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 14:47:38.999692
- Title: NeuSE: A Neural Snapshot Ensemble Method for Collaborative Filtering
- Title(参考訳): NeuSE:協調フィルタリングのためのニューラルスナップショットアンサンブル手法
- Authors: Dongsheng Li, Haodong Liu, Chao Chen, Yingying Zhao, Stephen M. Chu,
Bo Yang
- Abstract要約: 協調的グローバルスナップショットフィルタリング(CF)データセットでは、最適なモデルは通常、すべての観測データに対する経験的リスクを世界規模で最小化することによって学習される。
本稿では,提案手法が比較的既存の協調手法に適用した場合の精度(最大15.9%)を大幅に向上できることを示す。
- 参考スコア(独自算出の注目度): 16.347327867397443
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In collaborative filtering (CF) algorithms, the optimal models are usually
learned by globally minimizing the empirical risks averaged over all the
observed data. However, the global models are often obtained via a performance
tradeoff among users/items, i.e., not all users/items are perfectly fitted by
the global models due to the hard non-convex optimization problems in CF
algorithms. Ensemble learning can address this issue by learning multiple
diverse models but usually suffer from efficiency issue on large datasets or
complex algorithms. In this paper, we keep the intermediate models obtained
during global model learning as the snapshot models, and then adaptively
combine the snapshot models for individual user-item pairs using a memory
network-based method. Empirical studies on three real-world datasets show that
the proposed method can extensively and significantly improve the accuracy (up
to 15.9% relatively) when applied to a variety of existing collaborative
filtering methods.
- Abstract(参考訳): 協調フィルタリング(CF)アルゴリズムでは、最適モデルは通常、すべての観測データ上で平均化された経験的リスクを世界規模で最小化することによって学習される。
しかしながら、グローバルモデルはしばしばユーザ/イテム間のパフォーマンストレードオフによって得られる。すなわち、CFアルゴリズムの非凸最適化の問題により、すべてのユーザ/イテムがグローバルモデルに完全に適合しているわけではない。
アンサンブル学習は、複数の多様なモデルを学習することでこの問題に対処できるが、通常、大規模なデータセットや複雑なアルゴリズムの効率の問題に苦しむ。
本稿では,グローバルモデル学習中に得られた中間モデルをスナップショットモデルとして保持し,メモリネットワークベースの手法を用いて個々のユーザとイテムペアのスナップショットモデルを適応的に組み合わせる。
3つの実世界のデータセットに関する実証的研究により、提案手法は様々な協調フィルタリング手法に適用した場合の精度(最大15.9%の相対)を広範囲に、かつ著しく向上させることができることが示された。
関連論文リスト
- FedDRL: A Trustworthy Federated Learning Model Fusion Method Based on Staged Reinforcement Learning [7.846139591790014]
2段階のアプローチに基づく強化学習を用いたモデル融合手法であるFedDRLを提案する。
最初の段階では、我々の手法は悪意あるモデルをフィルタリングし、信頼されたクライアントモデルを選択してモデル融合に参加する。
第2段階では、FedDRLアルゴリズムは信頼されたクライアントモデルの重みを適応的に調整し、最適なグローバルモデルを集約する。
論文 参考訳(メタデータ) (2023-07-25T17:24:32Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Efficient Data-specific Model Search for Collaborative Filtering [56.60519991956558]
協調フィルタリング(CF)はレコメンダシステムの基本的なアプローチである。
本稿では,機械学習(AutoML)の最近の進歩を動機として,データ固有のCFモデルを設計することを提案する。
ここでキーとなるのは、最先端(SOTA)のCFメソッドを統一し、それらを入力エンコーディング、埋め込み関数、インタラクション、予測関数の非結合ステージに分割する新しいフレームワークである。
論文 参考訳(メタデータ) (2021-06-14T14:30:32Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - FedBE: Making Bayesian Model Ensemble Applicable to Federated Learning [23.726336635748783]
フェデレートラーニング(Federated Learning)は、ユーザのローカルにトレーニングされたモデルにアクセスして、自身のデータではなく、強力なグローバルモデルを協調的にトレーニングすることを目的としている。
したがって、ローカルモデルをグローバルモデルに集約することが重要なステップであり、これはユーザーが非i.d.データを持つ場合に困難であることが示されている。
我々は,ハイクオリティなグローバルモデルをサンプリングすることによってベイズ推論の観点から,FedBEという新しい集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-04T01:18:25Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - Auto-Ensemble: An Adaptive Learning Rate Scheduling based Deep Learning
Model Ensembling [11.324407834445422]
本稿では,ディープラーニングモデルのチェックポイントを収集し,それらを自動的にアンサンブルする自動アンサンブル(AE)を提案する。
この手法の利点は、一度のトレーニングで学習率をスケジューリングすることで、モデルを様々な局所最適化に収束させることである。
論文 参考訳(メタデータ) (2020-03-25T08:17:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。