論文の概要: Personalized Prompt Learning for Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2202.07371v1
- Date: Tue, 15 Feb 2022 12:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 13:49:46.076954
- Title: Personalized Prompt Learning for Explainable Recommendation
- Title(参考訳): 説明可能な勧告のためのパーソナライズされたプロンプト学習
- Authors: Lei Li, Yongfeng Zhang, Li Chen
- Abstract要約: 本稿では,正規化としての逐次チューニングとレコメンデーションという2つのトレーニング戦略を提案する。
当社の継続的プロンプト学習アプローチは、説明可能な推奨の3つのデータセットの強いベースラインを一貫して上回ります。
- 参考スコア(独自算出の注目度): 46.69922623691051
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing user-understandable explanations to justify recommendations could
help users better understand the recommended items, increase the system's ease
of use, and gain users' trust. A typical approach to realize it is natural
language generation. However, previous works mostly adopt recurrent neural
networks to meet the ends, leaving the potentially more effective pre-trained
Transformer models under-explored. In fact, user and item IDs, as important
identifiers in recommender systems, are inherently in different semantic space
as words that pre-trained models were already trained on. Thus, how to
effectively fuse IDs into such models becomes a critical issue. Inspired by
recent advancement in prompt learning, we come up with two solutions: find
alternative words to represent IDs (called discrete prompt learning), and
directly input ID vectors to a pre-trained model (termed continuous prompt
learning). In the latter case, ID vectors are randomly initialized but the
model is trained in advance on large corpora, so they are actually in different
learning stages. To bridge the gap, we further propose two training strategies:
sequential tuning and recommendation as regularization. Extensive experiments
show that our continuous prompt learning approach equipped with the training
strategies consistently outperforms strong baselines on three datasets of
explainable recommendation.
- Abstract(参考訳): レコメンデーションを正当化するためのユーザ理解可能な説明を提供することは、推奨項目をよりよく理解し、システムの使いやすさを高め、ユーザの信頼を得るのに役立つ。
それを実現する典型的なアプローチは自然言語生成である。
しかし、以前の研究は主に終端を満たすためにリカレントニューラルネットワークを採用しており、より効果的にトレーニング済みのTransformerモデルを未探索のまま残している。
実際、レコメンダシステムで重要な識別子であるユーザidとアイテムidは、トレーニング済みのモデルがすでにトレーニング済みの単語として、本質的に異なる意味空間にある。
したがって、これらのモデルにIDを効果的に融合する方法が重要な問題となる。
近年の即時学習の進歩に触発されて,IDを表す代替語を見つける(離散的即時学習と呼ぶ)ことと,事前学習されたモデルにIDベクトルを直接入力する(連続的即時学習という)という2つの方法が考案された。
後者の場合、IDベクトルはランダムに初期化されるが、モデルは大きなコーパスで事前訓練されるため、実際には異なる学習段階にある。
さらに,このギャップを埋めるために,逐次チューニングとレコメンデーションの2つのトレーニング戦略を提案する。
広範な実験により,トレーニング戦略を備えた継続的プロンプト学習アプローチが,説明可能なレコメンデーションの3つのデータセットにおいて,強いベースラインを一貫して上回っていることが示された。
関連論文リスト
- Pre-trained Language Model and Knowledge Distillation for Lightweight Sequential Recommendation [51.25461871988366]
本稿では,事前学習言語モデルと知識蒸留に基づく逐次推薦アルゴリズムを提案する。
提案アルゴリズムは,推薦精度を高め,タイムリーな推薦サービスを提供する。
論文 参考訳(メタデータ) (2024-09-23T08:39:07Z) - Revisiting Prompt Pretraining of Vision-Language Models [13.888505919946578]
本稿では、RPP(Revisiting Prompt Pretraining)と呼ばれる一般的なフレームワークを提案する。
RPPは、フィッティングと一般化能力の改善を、迅速な構造と迅速な監督という2つの側面から目標としている。
また,事前訓練されたコントラスト言語画像事前学習(CLIP)教師モデルによって提供されるゼロショット確率予測から得られたソフトラベルを利用する。
論文 参考訳(メタデータ) (2024-09-10T02:36:13Z) - Preference Consistency Matters: Enhancing Preference Learning in Language Models with Automated Self-Curation of Training Corpora [4.008122785948581]
本稿では,アノテーション付きデータセットを直接トレーニングしたプロキシモデルを活用することで,前処理を行うセルフキュレーション手法を提案する。
本手法は、一貫性のあるアノテーションを自動的に検出し、選択することで、好みの学習を強化する。
論文 参考訳(メタデータ) (2024-08-23T02:27:14Z) - Distribution Aligned Semantics Adaption for Lifelong Person Re-Identification [43.32960398077722]
ライフロングパーソン・リID(Lifelong person Re-IDentification)は、リID(Re-ID)システムの一種である。
LReIDは、古いドメインからの例証の再生と、古いモデルでロジットに知識蒸留を適用することに依存している。
多様な歩行者画像に基づいて大規模に訓練されたRe-IDモデルは、堅牢で一般的な人間の意味知識を得ることができると論じる。
論文 参考訳(メタデータ) (2024-05-30T05:15:38Z) - Self-Evolution Learning for Discriminative Language Model Pretraining [103.57103957631067]
自己進化学習(Self-Evolution Learning、SE)は、単純で効果的なトークンマスキングと学習方法である。
SEは情報的だが未探索のトークンを学習することに集中し、新しいToken固有のラベル平滑化アプローチを導入してトレーニングを適応的に調整する。
論文 参考訳(メタデータ) (2023-05-24T16:00:54Z) - Self-training Improves Pre-training for Few-shot Learning in
Task-oriented Dialog Systems [47.937191088981436]
大規模事前訓練型言語モデルでは、ToDで数発の学習を行う上で有望な結果が示されている。
本稿では,より強力な学生モデルを訓練するために,最も自信のないラベル付きデータを反復的にラベル付けする自己学習手法を提案する。
目的分類,ダイアログ状態追跡,ダイアログアクト予測,応答選択など,ToDの4つの下流タスクに関する実験と分析を行った。
論文 参考訳(メタデータ) (2021-08-28T07:22:06Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。