論文の概要: End-to-end Learnable Clustering for Intent Learning in Recommendation
- arxiv url: http://arxiv.org/abs/2401.05975v1
- Date: Thu, 11 Jan 2024 15:22:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 13:57:48.933151
- Title: End-to-end Learnable Clustering for Intent Learning in Recommendation
- Title(参考訳): 推薦学習のためのエンドツーエンド学習型クラスタリング
- Authors: Yue Liu, Shihao Zhu, Jun Xia, Yingwei Ma, Jian Ma, Wenliang Zhong,
Guannan Zhang, Kejun Zhang, Xinwang Liu
- Abstract要約: 本稿では,Underline-to-end underlineLearnable underlinelustering framework for UnderlineRecommendationに表現学習を統合する,UnderlineELCRecという新しい意図学習手法を提案する。
我々は、学習したクラスタセンターを表現学習のための自己超越信号として活用し、レコメンデーション性能をさらに向上させる。
- 参考スコア(独自算出の注目度): 61.29127008174193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mining users' intents plays a crucial role in sequential recommendation. The
recent approach, ICLRec, was introduced to extract underlying users' intents
using contrastive learning and clustering. While it has shown effectiveness,
the existing method suffers from complex and cumbersome alternating
optimization, leading to two main issues. Firstly, the separation of
representation learning and clustering optimization within a generalized
expectation maximization (EM) framework often results in sub-optimal
performance. Secondly, performing clustering on the entire dataset hampers
scalability for large-scale industry data. To address these challenges, we
propose a novel intent learning method called \underline{ELCRec}, which
integrates representation learning into an \underline{E}nd-to-end
\underline{L}earnable \underline{C}lustering framework for
\underline{Rec}ommendation. Specifically, we encode users' behavior sequences
and initialize the cluster centers as learnable network parameters.
Additionally, we design a clustering loss that guides the networks to
differentiate between different cluster centers and pull similar samples
towards their respective cluster centers. This allows simultaneous optimization
of recommendation and clustering using mini-batch data. Moreover, we leverage
the learned cluster centers as self-supervision signals for representation
learning, resulting in further enhancement of recommendation performance.
Extensive experiments conducted on open benchmarks and industry data validate
the superiority, effectiveness, and efficiency of our proposed ELCRec method.
Code is available at: https://github.com/yueliu1999/ELCRec.
- Abstract(参考訳): ユーザの意図をマイニングすることは、逐次レコメンデーションにおいて重要な役割を果たす。
最近のアプローチであるiclrecは、対照的な学習とクラスタリングを使用して、基礎となるユーザの意図を抽出するために導入された。
有効性を示しているが、既存の手法は複雑で面倒な交互最適化に悩まされており、2つの主要な問題に繋がる。
第一に、一般化期待最大化(EM)フレームワークにおける表現学習とクラスタリング最適化の分離は、しばしば準最適性能をもたらす。
第二に、データセット全体のクラスタリングは、大規模産業データに対するスケーラビリティを損なう。
これらの課題に対処するために、表現学習を \underline{E}nd-to-end \underline{L}earnable \underline{C}lustering framework for \underline{Rec}ommendation に統合する、新しい意図学習手法である \underline{ELCRec} を提案する。
具体的には、ユーザの行動シーケンスをエンコードし、クラスタセンターを学習可能なネットワークパラメータとして初期化する。
さらに、異なるクラスタセンタを区別するネットワークを誘導し、同様のサンプルをそれぞれのクラスタセンタにプルするクラスタリングロスを設計する。
これにより、ミニバッチデータを用いたレコメンデーションとクラスタリングの同時最適化が可能になる。
さらに,学習したクラスタセンタを自己スーパービジョン信号として表現学習に活用し,レコメンデーション性能をさらに向上させる。
オープンベンチマークおよび業界データを用いた大規模実験により,提案手法の優位性,有効性,効率性を検証した。
コードはhttps://github.com/yueliu1999/elcrec。
関連論文リスト
- Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - Intent Contrastive Learning for Sequential Recommendation [86.54439927038968]
ユーザの意図を表現するために潜伏変数を導入し,クラスタリングにより潜伏変数の分布関数を学習する。
我々は,学習意図を対照的なSSLによってSRモデルに活用し,シーケンスのビューとそれに対応するインテントとの一致を最大化することを提案する。
4つの実世界のデータセットで実施された実験は、提案した学習パラダイムの優位性を示している。
論文 参考訳(メタデータ) (2022-02-05T09:24:13Z) - Cluster Analysis with Deep Embeddings and Contrastive Learning [0.0]
本研究は,深層埋め込みから画像クラスタリングを行うための新しいフレームワークを提案する。
提案手法では,クラスタセンターの表現をエンドツーエンドで学習し,予測する。
我々のフレームワークは広く受け入れられているクラスタリング手法と同等に動作し、CIFAR-10データセット上で最先端のコントラスト学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-26T22:18:15Z) - Meta-learning representations for clustering with infinite Gaussian
mixture models [39.56814839510978]
クラスタリング性能を向上させるためにニューラルネットワークを訓練するメタラーニング手法を提案する。
提案手法は,非ラベルデータとは異なるラベルデータを用いた知識メタ学習を用いて,未ラベルデータをクラスタ化することができる。
論文 参考訳(メタデータ) (2021-03-01T02:05:31Z) - Consensus Clustering With Unsupervised Representation Learning [4.164845768197489]
我々はBootstrap Your Own Latent(BYOL)のクラスタリング能力について検討し、BYOLを使って学習した機能がクラスタリングに最適でないことを観察する。
本稿では,新たなコンセンサスクラスタリングに基づく損失関数を提案するとともに,クラスタリング能力を改善し,類似のクラスタリングに基づく手法より優れたBYOLをエンド・ツー・エンドで学習する。
論文 参考訳(メタデータ) (2020-10-03T01:16:46Z) - Online Deep Clustering for Unsupervised Representation Learning [108.33534231219464]
オンラインディープクラスタリング(ODC)は、交互にではなく、クラスタリングとネットワーク更新を同時に実行する。
我々は,2つの動的メモリモジュール,すなわち,サンプルラベルと特徴を格納するサンプルメモリと,セントロイド進化のためのセントロイドメモリを設計,維持する。
このように、ラベルとネットワークは交互にではなく肩から肩へと進化する。
論文 参考訳(メタデータ) (2020-06-18T16:15:46Z) - LSD-C: Linearly Separable Deep Clusters [145.89790963544314]
ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2020-06-17T17:58:10Z) - An Efficient Framework for Clustered Federated Learning [26.24231986590374]
本稿では,ユーザがクラスタに分散するフェデレーション学習(FL)の問題に対処する。
反復フェデレーションクラスタリングアルゴリズム(IFCA)を提案する。
ニューラルネットワークのような非分割問題では,アルゴリズムが効率的であることを示す。
論文 参考訳(メタデータ) (2020-06-07T08:48:59Z) - Improving k-Means Clustering Performance with Disentangled Internal
Representations [0.0]
本稿では,オートエンコーダの学習遅延符号表現の絡み合いを最適化する,シンプルなアプローチを提案する。
提案手法を用いて,MNISTデータセットでは96.2%,Fashion-MNISTデータセットでは85.6%,EMNIST Balancedデータセットでは79.2%,ベースラインモデルでは79.2%であった。
論文 参考訳(メタデータ) (2020-06-05T11:32:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。