論文の概要: Consensus Learning from Heterogeneous Objectives for One-Class
Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2202.13140v1
- Date: Sat, 26 Feb 2022 13:34:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:47:46.529307
- Title: Consensus Learning from Heterogeneous Objectives for One-Class
Collaborative Filtering
- Title(参考訳): 一級協調フィルタリングのための異種物体からの合意学習
- Authors: SeongKu Kang, Dongha Lee, Wonbin Kweon, Junyoung Hwang, Hwanjo Yu
- Abstract要約: 本稿では、トレーニングプロセスを通じて異種目的からの相補性を生かした、ConCFという新しいフレームワークを提案する。
実世界のデータセットに関する我々の実験は、ConCFがモデルの一般化を著しく改善することを示した。
- 参考スコア(独自算出の注目度): 30.17063272667769
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past decades, for One-Class Collaborative Filtering (OCCF), many
learning objectives have been researched based on a variety of underlying
probabilistic models. From our analysis, we observe that models trained with
different OCCF objectives capture distinct aspects of user-item relationships,
which in turn produces complementary recommendations. This paper proposes a
novel OCCF framework, named ConCF, that exploits the complementarity from
heterogeneous objectives throughout the training process, generating a more
generalizable model. ConCF constructs a multi-branch variant of a given target
model by adding auxiliary heads, each of which is trained with heterogeneous
objectives. Then, it generates consensus by consolidating the various views
from the heads, and guides the heads based on the consensus. The heads are
collaboratively evolved based on their complementarity throughout the training,
which again results in generating more accurate consensus iteratively. After
training, we convert the multi-branch architecture back to the original target
model by removing the auxiliary heads, thus there is no extra inference cost
for the deployment. Our extensive experiments on real-world datasets
demonstrate that ConCF significantly improves the generalization of the model
by exploiting the complementarity from heterogeneous objectives.
- Abstract(参考訳): 過去数十年にわたり、ワンクラスコラボレーティブフィルタリング(occf)では、さまざまな確率モデルに基づいて多くの学習目標が研究されてきた。
分析の結果,異なるOCCF目標で訓練されたモデルがユーザとイテムの関係の異なる側面を捉え,補完的なレコメンデーションを生成することがわかった。
本稿では、トレーニングプロセス全体を通じて異種目的からの相補性を生かし、より一般化可能なモデルを生成する新しいOCCFフレームワークであるConCFを提案する。
ConCFは、補助ヘッドを追加することで、与えられたターゲットモデルのマルチブランチ変種を構築し、それぞれが異種目的で訓練される。
そして、頭から様々な視点を統合してコンセンサスを生成し、コンセンサスに基づいてヘッドを誘導する。
頭部はトレーニングを通して相補性に基づいて協調的に進化し、反復的により正確なコンセンサスを生成する。
トレーニング後、補助ヘッドを取り除き、マルチブランチアーキテクチャを元のターゲットモデルに戻すため、デプロイメントに余分な推論コストは発生しない。
実世界のデータセットに関する広範な実験により、ConCFは異種目的からの相補性を利用してモデルの一般化を著しく改善することを示した。
関連論文リスト
- UNCO: Towards Unifying Neural Combinatorial Optimization through Large Language Model [21.232626415696267]
1つのモデルで異なるタイプの最適化問題(COP)を解決するために、統一的なニューラルネットワーク最適化フレームワークを提案する。
我々は自然言語を用いて、異なるCOPに対してテキスト分散インスタンスを定式化し、それらを大言語モデル(LLM)によって同じ埋め込み空間にエンコードする。
実験により、UNCOモデルはシングルセッショントレーニング後に複数のCOPを解決でき、伝統的なベースラインや学習ベースのベースラインに匹敵する満足なパフォーマンスを達成できることが示された。
論文 参考訳(メタデータ) (2024-08-22T08:42:44Z) - Beyond Similarity: Personalized Federated Recommendation with Composite Aggregation [22.359428566363945]
フェデレーションレコメンデーションは、大規模なデバイスからローカルモデルを集約することで、グローバルな知識を集めることを目的としている。
現在の手法は主に、連合視覚コミュニティによって発明された集約関数を利用して、類似したクライアントからのパラメータを集約する。
複合アグリゲーション(FedCA)を用いたパーソナライズド・フェデレーション・レコメンデーション・モデルを提案する。
論文 参考訳(メタデータ) (2024-06-06T10:17:52Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
課題群規則化(Task Groupings Regularization)は、矛盾するタスクをグループ化し整合させることにより、モデルの不均一性から恩恵を受ける新しいアプローチである。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Spectral Co-Distillation for Personalized Federated Learning [69.97016362754319]
本稿では,モデルスペクトル情報に基づく新しい蒸留法を提案する。
また、汎用モデルトレーニングとパーソナライズモデルトレーニングの双方向ブリッジを確立するための共蒸留フレームワークも導入する。
提案したスペクトル共蒸留法の有効性と性能を実証し,また,待ち時間のないトレーニングプロトコルについて述べる。
論文 参考訳(メタデータ) (2024-01-29T16:01:38Z) - Universal Semi-supervised Model Adaptation via Collaborative Consistency
Training [92.52892510093037]
我々は、Universal Semi-supervised Model Adaptation (USMA)と呼ばれる現実的で挑戦的なドメイン適応問題を導入する。
本稿では,2つのモデル間の予測整合性を規則化する協調的整合性トレーニングフレームワークを提案する。
実験により,いくつかのベンチマークデータセットにおける本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-07T08:19:40Z) - Joint Training of Deep Ensembles Fails Due to Learner Collusion [61.557412796012535]
機械学習モデルのアンサンブルは、単一のモデルよりもパフォーマンスを改善する強力な方法として確立されている。
伝統的に、アンサンブルアルゴリズムは、ジョイントパフォーマンスの最適化を目標として、ベースラーナーを独立または逐次訓練する。
アンサンブルの損失を最小化することは、実際にはほとんど適用されないことを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:07Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - An attention model for the formation of collectives in real-world
domains [78.1526027174326]
本研究では,サステナブル開発目標に沿った実世界のアプリケーションにエージェントの集合を形成することの問題点を考察する。
本稿では,注目モデルと整数線形プログラムの新たな組み合わせに基づく集合形成のための一般的な手法を提案する。
論文 参考訳(メタデータ) (2022-04-30T09:15:36Z) - CD$^2$-pFed: Cyclic Distillation-guided Channel Decoupling for Model
Personalization in Federated Learning [24.08509828106899]
フェデレートラーニング(Federated Learning, FL)は、複数のクライアントが共同で共有グローバルモデルを学ぶことを可能にする分散ラーニングパラダイムである。
FLにおけるグローバルモデルをパーソナライズするために,CD2-pFedという新規なサイクリック蒸留誘導チャネルデカップリングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-08T07:13:30Z) - Generalized Adversarially Learned Inference [42.40405470084505]
我々は、画像生成器とエンコーダを逆向きにトレーニングし、画像と潜時ベクトル対の2つの結合分布を一致させることにより、GAN内の潜時変数を推定する方法を開発した。
我々は、望まれるソリューションに関する事前または学習知識に基づいて、再構築、自己監督、その他の形式の監督に関する複数のフィードバック層を組み込んだ。
論文 参考訳(メタデータ) (2020-06-15T02:18:13Z) - Multiview Representation Learning for a Union of Subspaces [38.68763142172997]
提案したモデルと単純な混合物の集合が標準CCAよりも改良されていることを示す。
我々の相関に基づく目的は、CCAの目的をCCAモデルの混合に有意に一般化する。
論文 参考訳(メタデータ) (2019-12-30T00:44:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。