論文の概要: Knowledge Prompt-tuning for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2308.08459v1
- Date: Mon, 14 Aug 2023 14:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 12:43:38.303749
- Title: Knowledge Prompt-tuning for Sequential Recommendation
- Title(参考訳): シーケンスレコメンデーションのための知識プロンプトチューニング
- Authors: Jianyang Zhai, Xiawu Zheng, Chang-Dong Wang, Hui Li, and Yonghong Tian
- Abstract要約: 逐次レコメンデーションのための知識プロンプトチューニング(textbfKP4SR)を提案する。
我々は,一連の関係テンプレートを構築し,構造化知識グラフ(KG)を知識プロンプトに変換することで,意味的ギャップの問題を解決する。
我々は,KP4SRを実世界の3つのデータセットで評価し,実験結果から,本手法が複数の評価指標における最先端手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 39.44934684248901
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained language models (PLMs) have demonstrated strong performance in
sequential recommendation (SR), which are utilized to extract general
knowledge. However, existing methods still lack domain knowledge and struggle
to capture users' fine-grained preferences. Meanwhile, many traditional SR
methods improve this issue by integrating side information while suffering from
information loss. To summarize, we believe that a good recommendation system
should utilize both general and domain knowledge simultaneously. Therefore, we
introduce an external knowledge base and propose Knowledge Prompt-tuning for
Sequential Recommendation (\textbf{KP4SR}). Specifically, we construct a set of
relationship templates and transform a structured knowledge graph (KG) into
knowledge prompts to solve the problem of the semantic gap. However, knowledge
prompts disrupt the original data structure and introduce a significant amount
of noise. We further construct a knowledge tree and propose a knowledge tree
mask, which restores the data structure in a mask matrix form, thus mitigating
the noise problem. We evaluate KP4SR on three real-world datasets, and
experimental results show that our approach outperforms state-of-the-art
methods on multiple evaluation metrics. Specifically, compared with PLM-based
methods, our method improves NDCG@5 and HR@5 by \textcolor{red}{40.65\%} and
\textcolor{red}{36.42\%} on the books dataset, \textcolor{red}{11.17\%} and
\textcolor{red}{11.47\%} on the music dataset, and \textcolor{red}{22.17\%} and
\textcolor{red}{19.14\%} on the movies dataset, respectively. Our code is
publicly available at the link:
\href{https://github.com/zhaijianyang/KP4SR}{\textcolor{blue}{https://github.com/zhaijianyang/KP4SR}.}
- Abstract(参考訳): プレトレーニング言語モデル(PLM)は、一般的な知識を抽出するために使用される逐次レコメンデーション(SR)において、強い性能を示す。
しかし、既存の手法にはドメインの知識が欠けており、ユーザーの細かい好みを捉えるのに苦労している。
一方、多くの従来のSR手法では、情報損失に悩まされながらサイド情報を統合することでこの問題を改善する。
要約すると、優れたレコメンデーションシステムは、一般知識とドメイン知識の両方を同時に活用すべきである。
そこで,外部知識ベースを導入し,逐次推薦のための知識プロンプトチューニングを提案する(\textbf{kp4sr})。
具体的には,関係テンプレートのセットを構築し,構造化知識グラフ(kg)を知識プロンプトに変換し,意味的ギャップの問題を解決する。
しかし、知識は元のデータ構造を妨害し、かなりの量のノイズをもたらす。
さらに,知識木を構築し,マスマトリクス形式でデータ構造を復元する知識木マスクを提案し,ノイズ問題を緩和する。
我々は,KP4SRを実世界の3つのデータセットで評価し,実験結果から,複数の評価指標における最先端手法よりも優れた結果を得た。
特に、plmベースの方法と比較して、本手法は、本書データセット上の \textcolor{red}{40.65\%} と \textcolor{red}{36.42\%} と、音楽データセット上の \textcolor{red}{11.17\%} と \textcolor{red}{11.47\%} と、映画データセット上の \textcolor{red}{22.17\%} と \textcolor{red}{19.14\%} によってndcg@5 と hr@5 を改善する。
私たちのコードはリンクで公開されています。 \href{https://github.com/zhaijianyang/KP4SR}{\textcolor{blue}{https://github.com/zhaijianyang/KP4SR}。
}
関連論文リスト
- MUSE: Integrating Multi-Knowledge for Knowledge Graph Completion [0.0]
知識グラフ補完(KGC)は、欠落した(リレーション)部分(ヘッドエンティティ)--(リレーション]->(テールエンティティ)三重項を予測することを目的としている。
既存のKGCメソッドのほとんどは、単一の特徴(例えば、関係型)やサブグラフアグリゲーションに焦点を当てている。
本稿では,知識認識型推論モデル(MUSE)を提案する。
論文 参考訳(メタデータ) (2024-09-26T04:48:20Z) - Harnessing the Power of Semi-Structured Knowledge and LLMs with Triplet-Based Prefiltering for Question Answering [2.6524539020042663]
大きな言語モデル(LLM)はドメイン固有の知識を欠くことが多く、微調整されたモデルでさえ幻覚を起こす傾向がある。
パイプラインである4StepFocus、具体的には前処理のステップを示し、LCMの回答を大幅に改善する。
この手法は、半構造化知識ベースで三重項に基づく検索によって、直接的かつトレース可能な方法で、潜在的に正しい答えを絞り込む。
論文 参考訳(メタデータ) (2024-09-01T22:43:27Z) - Tree-of-Traversals: A Zero-Shot Reasoning Algorithm for Augmenting Black-box Language Models with Knowledge Graphs [72.89652710634051]
知識グラフ(KG)は、信頼性があり、構造化され、ドメイン固有であり、最新の外部知識を提供することで、Large Language Models(LLM)を補完する。
そこで本研究では,ゼロショット推論アルゴリズムであるTree-of-Traversalsを導入する。
論文 参考訳(メタデータ) (2024-07-31T06:01:24Z) - Robust and Scalable Model Editing for Large Language Models [75.95623066605259]
LLM編集のスケーラビリティと堅牢性を向上させるため,EREN(Reading Notesによる編集モデル)を提案する。
既存の技術とは異なり、複数の編集から知識を統合することができ、構文的に類似しているが意味的に無関係な入力に正しく反応する。
論文 参考訳(メタデータ) (2024-03-26T06:57:23Z) - KERMIT: Knowledge Graph Completion of Enhanced Relation Modeling with Inverse Transformation [19.31783654838732]
大規模言語モデルを用いてコヒーレントな記述を生成し,クエリと回答のセマンティックなギャップを埋める。
また、逆関係を利用して対称グラフを作成し、KGCのための強化トレーニングサンプルを提供する。
提案手法は,WN18RRではHit@1が4.2%,FB15k-237ではHit@3が3.4%向上し,優れた性能を示した。
論文 参考訳(メタデータ) (2023-09-26T09:03:25Z) - simpleKT: A Simple But Tough-to-Beat Baseline for Knowledge Tracing [22.055683237994696]
我々は、textscsimpleKT という名前の KT タスクを扱うための、強力だが単純なベースライン手法を提供する。
心理学におけるラッシュモデルに触発され、質問固有のバリエーションを明示的にモデル化し、質問間の個人差を捉えた。
本研究は,学生の学習行動に埋め込まれた時間認識情報を抽出するために,通常のドット・プロダクト・アテンション機能を利用する。
論文 参考訳(メタデータ) (2023-02-14T08:09:09Z) - Interleaving Retrieval with Chain-of-Thought Reasoning for
Knowledge-Intensive Multi-Step Questions [50.114651561111245]
マルチステップ質問応答のための新しいアプローチであるIRCoTを提案する。
CoTのステップで検索をインターリーブし、CoTで検索を誘導し、検索結果を用いてCoTを改善する。
論文 参考訳(メタデータ) (2022-12-20T18:26:34Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z) - DeepDPM: Deep Clustering With an Unknown Number of Clusters [6.0803541683577444]
学習中にKの値を知る必要のない効果的な深層クラスタリング手法を提案する。
分割/マージフレームワーク, 変化Kに適応する動的アーキテクチャ, 新たな損失を用いて, 提案手法は既存の非パラメトリック手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-03-27T14:11:06Z) - RGB-D Saliency Detection via Cascaded Mutual Information Minimization [122.8879596830581]
既存のRGB-Dサリエンシ検出モデルは、RGBと深さを効果的にマルチモーダル学習を実現するために明示的に奨励するものではない。
本稿では,RGB画像と深度データ間のマルチモーダル情報を「明示的」にモデル化するために,相互情報最小化による新しい多段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-15T12:31:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。