論文の概要: Personalized Prompt Learning for Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2202.07371v1
- Date: Tue, 15 Feb 2022 12:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 13:49:46.076954
- Title: Personalized Prompt Learning for Explainable Recommendation
- Title(参考訳): 説明可能な勧告のためのパーソナライズされたプロンプト学習
- Authors: Lei Li, Yongfeng Zhang, Li Chen
- Abstract要約: 本稿では,正規化としての逐次チューニングとレコメンデーションという2つのトレーニング戦略を提案する。
当社の継続的プロンプト学習アプローチは、説明可能な推奨の3つのデータセットの強いベースラインを一貫して上回ります。
- 参考スコア(独自算出の注目度): 46.69922623691051
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing user-understandable explanations to justify recommendations could
help users better understand the recommended items, increase the system's ease
of use, and gain users' trust. A typical approach to realize it is natural
language generation. However, previous works mostly adopt recurrent neural
networks to meet the ends, leaving the potentially more effective pre-trained
Transformer models under-explored. In fact, user and item IDs, as important
identifiers in recommender systems, are inherently in different semantic space
as words that pre-trained models were already trained on. Thus, how to
effectively fuse IDs into such models becomes a critical issue. Inspired by
recent advancement in prompt learning, we come up with two solutions: find
alternative words to represent IDs (called discrete prompt learning), and
directly input ID vectors to a pre-trained model (termed continuous prompt
learning). In the latter case, ID vectors are randomly initialized but the
model is trained in advance on large corpora, so they are actually in different
learning stages. To bridge the gap, we further propose two training strategies:
sequential tuning and recommendation as regularization. Extensive experiments
show that our continuous prompt learning approach equipped with the training
strategies consistently outperforms strong baselines on three datasets of
explainable recommendation.
- Abstract(参考訳): レコメンデーションを正当化するためのユーザ理解可能な説明を提供することは、推奨項目をよりよく理解し、システムの使いやすさを高め、ユーザの信頼を得るのに役立つ。
それを実現する典型的なアプローチは自然言語生成である。
しかし、以前の研究は主に終端を満たすためにリカレントニューラルネットワークを採用しており、より効果的にトレーニング済みのTransformerモデルを未探索のまま残している。
実際、レコメンダシステムで重要な識別子であるユーザidとアイテムidは、トレーニング済みのモデルがすでにトレーニング済みの単語として、本質的に異なる意味空間にある。
したがって、これらのモデルにIDを効果的に融合する方法が重要な問題となる。
近年の即時学習の進歩に触発されて,IDを表す代替語を見つける(離散的即時学習と呼ぶ)ことと,事前学習されたモデルにIDベクトルを直接入力する(連続的即時学習という)という2つの方法が考案された。
後者の場合、IDベクトルはランダムに初期化されるが、モデルは大きなコーパスで事前訓練されるため、実際には異なる学習段階にある。
さらに,このギャップを埋めるために,逐次チューニングとレコメンデーションの2つのトレーニング戦略を提案する。
広範な実験により,トレーニング戦略を備えた継続的プロンプト学習アプローチが,説明可能なレコメンデーションの3つのデータセットにおいて,強いベースラインを一貫して上回っていることが示された。
関連論文リスト
- Make Prompts Adaptable: Bayesian Modeling for Vision-Language Prompt
Learning with Data-Dependent Prior [14.232144691524528]
最近のVision-Language Pretrainedモデルは、多くの下流タスクのバックボーンとなっている。
MLEトレーニングは、トレーニングデータにおいて、コンテキストベクトルを過度に適合する画像特徴に導くことができる。
本稿では,素早い学習のためのベイズ的枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-09T10:15:59Z) - When Prompt-based Incremental Learning Does Not Meet Strong Pretraining [36.0889029038102]
本研究では,学習可能な適応型プロンプトジェネレータ(APG)を開発した。
鍵となるのは、プロンプト検索と学習プロセスを学習可能なプロンプトジェネレータに統一することである。
本手法は, 事前学習を伴わずに, 先進的な漸進的学習法を著しく上回っている。
論文 参考訳(メタデータ) (2023-08-21T03:33:21Z) - Self-Evolution Learning for Discriminative Language Model Pretraining [103.57103957631067]
自己進化学習(Self-Evolution Learning、SE)は、単純で効果的なトークンマスキングと学習方法である。
SEは情報的だが未探索のトークンを学習することに集中し、新しいToken固有のラベル平滑化アプローチを導入してトレーニングを適応的に調整する。
論文 参考訳(メタデータ) (2023-05-24T16:00:54Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Self-training Improves Pre-training for Few-shot Learning in
Task-oriented Dialog Systems [47.937191088981436]
大規模事前訓練型言語モデルでは、ToDで数発の学習を行う上で有望な結果が示されている。
本稿では,より強力な学生モデルを訓練するために,最も自信のないラベル付きデータを反復的にラベル付けする自己学習手法を提案する。
目的分類,ダイアログ状態追跡,ダイアログアクト予測,応答選択など,ToDの4つの下流タスクに関する実験と分析を行った。
論文 参考訳(メタデータ) (2021-08-28T07:22:06Z) - Learning How to Ask: Querying LMs with Mixtures of Soft Prompts [33.43689407735244]
自然言語プロンプトは、最近、事前訓練された言語モデルを他のaiタスクを実行するために使用される。
勾配降下による学習促進の考え方を探求する。
それぞれのタスクに対して、プロンプトの混合を最適化し、どのプロンプトが最も効果的か、それらをアサンブルするかを学ぶ。
論文 参考訳(メタデータ) (2021-04-14T02:56:14Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。