論文の概要: End-to-end Learnable Clustering for Intent Learning in Recommendation
- arxiv url: http://arxiv.org/abs/2401.05975v3
- Date: Fri, 2 Feb 2024 17:30:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 18:53:25.825414
- Title: End-to-end Learnable Clustering for Intent Learning in Recommendation
- Title(参考訳): 推薦学習のためのエンドツーエンド学習型クラスタリング
- Authors: Yue Liu, Shihao Zhu, Jun Xia, Yingwei Ma, Jian Ma, Wenliang Zhong,
Xinwang Liu, Guannan Zhang, Kejun Zhang
- Abstract要約: 我々は、アンダーラインELCRecと呼ばれる新しい意図学習手法を提案する。
振る舞い表現学習をUnderlineEnd-to-end UnderlineLearnable UnderlineClusteringフレームワークに統合する。
1億3000万ページビューの産業レコメンデーションシステムに本手法をデプロイし,有望な結果を得る。
- 参考スコア(独自算出の注目度): 61.29127008174193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intent learning, which aims to learn users' intents for user understanding
and item recommendation, has become a hot research spot in recent years.
However, the existing methods suffer from complex and cumbersome alternating
optimization, limiting the performance and scalability. To this end, we propose
a novel intent learning method termed \underline{ELCRec}, by unifying behavior
representation learning into an \underline{E}nd-to-end \underline{L}earnable
\underline{C}lustering framework, for effective and efficient
\underline{Rec}ommendation. Concretely, we encode users' behavior sequences and
initialize the cluster centers (latent intents) as learnable neurons. Then, we
design a novel learnable clustering module to separate different cluster
centers, thus decoupling users' complex intents. Meanwhile, it guides the
network to learn intents from behaviors by forcing behavior embeddings close to
cluster centers. This allows simultaneous optimization of recommendation and
clustering via mini-batch data. Moreover, we propose intent-assisted
contrastive learning by using cluster centers as self-supervision signals,
further enhancing mutual promotion. Both experimental results and theoretical
analyses demonstrate the superiority of ELCRec from six perspectives. Compared
to the runner-up, ELCRec improves NDCG@5 by 8.9\% and reduces computational
costs by 22.5\% on Beauty dataset. Furthermore, due to the scalability and
universal applicability, we deploy this method on the industrial recommendation
system with 130 million page views and achieve promising results.
- Abstract(参考訳): ユーザの理解とアイテムレコメンデーションの意図を学習することを目的としたインテント学習は,近年ではホットな研究スポットとなっている。
しかし、既存のメソッドは複雑で面倒な最適化に悩まされ、パフォーマンスとスケーラビリティが制限されます。
そこで本研究では, 行動表現学習を, 効果的かつ効率的に行うために, 行動表現学習を 'underline{E}nd-to-end \underline{L}earnable \underline{C}lustering framework に統一することで, 意図学習法である \underline{ELCRec} を提案する。
具体的には、ユーザの行動シーケンスをエンコードし、クラスタセンター(相対的意図)を学習可能なニューロンとして初期化する。
次に、異なるクラスタセンタを分離する新しい学習可能なクラスタリングモジュールを設計し、ユーザの複雑なインテントを分離する。
一方、ネットワークはクラスタ中心に近い振る舞いの埋め込みを強制することで、行動から意図を学習する。
これにより、ミニバッチデータによるレコメンデーションとクラスタリングの同時最適化が可能になる。
さらに,クラスタセンターを自己超越信号として利用し,相互促進の促進を図ることで,意図支援型コントラスト学習を提案する。
実験結果と理論的解析は6つの視点からelcrecの優越性を示している。
ランナーアップと比較して、ELCRecはNDCG@5を8.9\%改善し、Beautyデータセットの計算コストを22.5\%削減する。
さらに, 拡張性と汎用性のため, 1億3000万ページビューの産業レコメンデーションシステムに本手法をデプロイし, 有望な結果を得る。
関連論文リスト
- A Machine Learning-Based Framework for Clustering Residential
Electricity Load Profiles to Enhance Demand Response Programs [0.0]
実ケーススタディを通じて最適な負荷プロファイルを実現するために,機械学習に基づく新しいフレームワークを提案する。
本稿では,実ケーススタディを通じて最適な負荷プロファイルを実現するために,機械学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T11:23:26Z) - Dynamic Clustering and Cluster Contrastive Learning for Unsupervised
Person Re-identification [29.167783500369442]
教師なしRe-ID手法は、ラベルのないデータから堅牢で差別的な特徴を学習することを目的としている。
本稿では,動的クラスタリングとクラスタコントラスト学習(DCCC)手法を提案する。
提案したDCCCの有効性を検証するために, 広く利用されている複数の公開データセットの実験を行った。
論文 参考訳(メタデータ) (2023-03-13T01:56:53Z) - Intent Contrastive Learning for Sequential Recommendation [86.54439927038968]
ユーザの意図を表現するために潜伏変数を導入し,クラスタリングにより潜伏変数の分布関数を学習する。
我々は,学習意図を対照的なSSLによってSRモデルに活用し,シーケンスのビューとそれに対応するインテントとの一致を最大化することを提案する。
4つの実世界のデータセットで実施された実験は、提案した学習パラダイムの優位性を示している。
論文 参考訳(メタデータ) (2022-02-05T09:24:13Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - Cluster Analysis with Deep Embeddings and Contrastive Learning [0.0]
本研究は,深層埋め込みから画像クラスタリングを行うための新しいフレームワークを提案する。
提案手法では,クラスタセンターの表現をエンドツーエンドで学習し,予測する。
我々のフレームワークは広く受け入れられているクラスタリング手法と同等に動作し、CIFAR-10データセット上で最先端のコントラスト学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-26T22:18:15Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Consensus Clustering With Unsupervised Representation Learning [4.164845768197489]
我々はBootstrap Your Own Latent(BYOL)のクラスタリング能力について検討し、BYOLを使って学習した機能がクラスタリングに最適でないことを観察する。
本稿では,新たなコンセンサスクラスタリングに基づく損失関数を提案するとともに,クラスタリング能力を改善し,類似のクラスタリングに基づく手法より優れたBYOLをエンド・ツー・エンドで学習する。
論文 参考訳(メタデータ) (2020-10-03T01:16:46Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z) - LSD-C: Linearly Separable Deep Clusters [145.89790963544314]
ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2020-06-17T17:58:10Z) - Improving k-Means Clustering Performance with Disentangled Internal
Representations [0.0]
本稿では,オートエンコーダの学習遅延符号表現の絡み合いを最適化する,シンプルなアプローチを提案する。
提案手法を用いて,MNISTデータセットでは96.2%,Fashion-MNISTデータセットでは85.6%,EMNIST Balancedデータセットでは79.2%,ベースラインモデルでは79.2%であった。
論文 参考訳(メタデータ) (2020-06-05T11:32:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。