論文の概要: Zero-shot Item-based Recommendation via Multi-task Product Knowledge
Graph Pre-Training
- arxiv url: http://arxiv.org/abs/2305.07633v1
- Date: Fri, 12 May 2023 17:38:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 11:50:43.560144
- Title: Zero-shot Item-based Recommendation via Multi-task Product Knowledge
Graph Pre-Training
- Title(参考訳): マルチタスク製品知識グラフによるゼロショット項目ベース推薦
- Authors: Ziwei Fan, Zhiwei Liu, Shelby Heinecke, Jianguo Zhang, Huan Wang,
Caiming Xiong, and Philip S. Yu
- Abstract要約: 本稿ではゼロショットアイテムベース勧告(ZSIR)タスクのための新しいパラダイムを提案する。
製品知識グラフ(PKG)のモデルを事前トレーニングして、PLMからアイテム機能を洗練します。
我々は,PKGにおける多型関係,アイテムジェネリック情報と関係のセマンティックな相違,PKGから下流ZSIRタスクへのドメイン差といった,PKG事前学習の課題を3つ挙げる。
- 参考スコア(独自算出の注目度): 106.85813323510783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing recommender systems face difficulties with zero-shot items, i.e.
items that have no historical interactions with users during the training
stage. Though recent works extract universal item representation via
pre-trained language models (PLMs), they ignore the crucial item relationships.
This paper presents a novel paradigm for the Zero-Shot Item-based
Recommendation (ZSIR) task, which pre-trains a model on product knowledge graph
(PKG) to refine the item features from PLMs. We identify three challenges for
pre-training PKG, which are multi-type relations in PKG, semantic divergence
between item generic information and relations and domain discrepancy from PKG
to downstream ZSIR task. We address the challenges by proposing four
pre-training tasks and novel task-oriented adaptation (ToA) layers. Moreover,
this paper discusses how to fine-tune the model on new recommendation task such
that the ToA layers are adapted to ZSIR task. Comprehensive experiments on 18
markets dataset are conducted to verify the effectiveness of the proposed model
in both knowledge prediction and ZSIR task.
- Abstract(参考訳): 既存のレコメンデーターシステムは、ゼロショットアイテム、すなわちトレーニング段階でユーザーと歴史的に相互作用のないアイテムで困難に直面している。
最近の研究は、事前学習言語モデル(PLM)を通して普遍的な項目表現を抽出しているが、それらは重要な項目関係を無視している。
本稿では、製品知識グラフ(PKG)のモデルを事前学習し、PLMからアイテムの特徴を洗練させるZero-Shot Item-based Recommendation(ZSIR)タスクの新しいパラダイムを提案する。
我々は,PKGにおける多型関係,アイテムジェネリック情報と関係のセマンティックな相違,PKGから下流ZSIRタスクへのドメイン差といった,PKG事前学習の課題を3つ挙げる。
課題は4つの事前学習タスクと新しいタスク指向適応(toa)レイヤを提案することで解決する。
さらに,ToA層がZSIRタスクに適合するように,新しいレコメンデーションタスクでモデルを微調整する方法についても論じる。
18の市場データセットに関する包括的実験を行い、知識予測とzsirタスクの両方における提案モデルの有効性を検証する。
関連論文リスト
- P-RAG: Progressive Retrieval Augmented Generation For Planning on Embodied Everyday Task [94.08478298711789]
Embodied Everyday Taskは、インボディードAIコミュニティで人気のあるタスクである。
自然言語命令は明示的なタスクプランニングを欠くことが多い。
タスク環境に関する知識をモデルに組み込むには、広範囲なトレーニングが必要である。
論文 参考訳(メタデータ) (2024-09-17T15:29:34Z) - On Task-personalized Multimodal Few-shot Learning for Visually-rich
Document Entity Retrieval [59.25292920967197]
VDER(Few-shot document entity search)は、NLPアプリケーションにおいて重要なトピックである。
FewVEXは、エンティティレベルの少数ショットVDERの分野における将来の研究を促進するための、新しいデータセットである。
本稿では,タスクパーソナライズを効果的に実現することを中心に,タスク認識型メタラーニングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-01T17:51:43Z) - Analysis of the Reasoning with Redundant Information Provided Ability of
Large Language Models [0.0]
大きな言語モデル(LLM)は、さまざまな自然言語処理タスクにまたがる印象的な機能を示している。
このギャップに対処するため,Reasoning with Redundant Information Provided (RRIP) と呼ばれる新しいQAタスクが導入された。
本研究は,LlaMA2-13B-chatとGPT-3.5 (generative pre-trained transformer 3.5)の2つのLLMを評価し,従来のQAタスクとRRIPタスクとの対比を行った。
論文 参考訳(メタデータ) (2023-10-06T06:20:06Z) - Information Association for Language Model Updating by Mitigating
LM-Logical Discrepancy [68.31760483418901]
大規模言語モデル(LLM)は、時代遅れの事前学習データのために現在の情報を提供するのに苦労する。
知識編集や連続的な微調整など,従来のLCMの更新方法は,新たな情報の一般化に重大な欠点がある。
これらの欠点の中核となる課題は,言語モデリングの確率と論理的確率の差を特徴とするLM論理的相違である。
論文 参考訳(メタデータ) (2023-05-29T19:48:37Z) - Leveraging Pre-Trained Language Models to Streamline Natural Language
Interaction for Self-Tracking [25.28975864365579]
本研究では,自己追跡のための新たなNLPタスクを提案する。
このフレームワークは、合成サンプルを使用してタスクを10ショットの学習に変換するプロンプトを強化し、新しいトラッキングトピックをブートストラップする際のコールドスタート問題に対処する。
論文 参考訳(メタデータ) (2022-05-31T01:58:04Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z) - Weighted Training for Cross-Task Learning [71.94908559469475]
クロスタスク学習のための重み付きトレーニングアルゴリズムであるTarget-Aware Weighted Training (TAWT)を紹介する。
TAWTは実装が容易で、計算効率が高く、ハイパーパラメータチューニングがほとんど必要とせず、漸近的でない学習理論の保証を享受できることを示す。
副産物として、提案された表現に基づくタスク距離は、クロスタスク学習のいくつかの重要な側面について理論的に原則化された方法で推論することができる。
論文 参考訳(メタデータ) (2021-05-28T20:27:02Z) - Curriculum-Meta Learning for Order-Robust Continual Relation Extraction [12.494209368988253]
連続的な関係抽出の課題に取り組むための新しいカリキュラムメタ学習方法を提案する。
メタ学習とカリキュラム学習を組み合わせて、モデルパラメータを新しいタスクに迅速に適応させる。
与えられたモデルの順序感度の程度を定量的に測定する難易度に基づく新しい指標を提案する。
論文 参考訳(メタデータ) (2021-01-06T08:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。