論文の概要: Knowledge-aware Collaborative Filtering with Pre-trained Language Model
for Personalized Review-based Rating Prediction
- arxiv url: http://arxiv.org/abs/2308.02555v1
- Date: Wed, 2 Aug 2023 07:28:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 01:00:56.052815
- Title: Knowledge-aware Collaborative Filtering with Pre-trained Language Model
for Personalized Review-based Rating Prediction
- Title(参考訳): 個人化レビューに基づくレーティング予測のための事前学習言語モデルを用いた知識認識協調フィルタリング
- Authors: Quanxiu Wang, Xinlei Cao, Jianyong Wang, Wei Zhang
- Abstract要約: 事前学習言語モデル(KCF-PLM)を用いた知識認識協調フィルタリング手法を提案する。
KCF-PLMはレビューテキスト、アスペクト、知識グラフ、事前訓練された言語モデルを組み合わせてレビューベースの評価予測を行う。
我々は、KCF-PLMの有効性を実証し、いくつかの公開データセットに関する包括的な実験を行う。
- 参考スコア(独自算出の注目度): 7.227734724373948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized review-based rating prediction aims at leveraging existing
reviews to model user interests and item characteristics for rating prediction.
Most of the existing studies mainly encounter two issues. First, the rich
knowledge contained in the fine-grained aspects of each review and the
knowledge graph is rarely considered to complement the pure text for better
modeling user-item interactions. Second, the power of pre-trained language
models is not carefully studied for personalized review-based rating
prediction. To address these issues, we propose an approach named
Knowledge-aware Collaborative Filtering with Pre-trained Language Model
(KCF-PLM). For the first issue, to utilize rich knowledge, KCF-PLM develops a
transformer network to model the interactions of the extracted aspects w.r.t. a
user-item pair. For the second issue, to better represent users and items,
KCF-PLM takes all the historical reviews of a user or an item as input to
pre-trained language models. Moreover, KCF-PLM integrates the transformer
network and the pre-trained language models through representation propagation
on the knowledge graph and user-item guided attention of the aspect
representations. Thus KCF-PLM combines review text, aspect, knowledge graph,
and pre-trained language models together for review-based rating prediction. We
conduct comprehensive experiments on several public datasets, demonstrating the
effectiveness of KCF-PLM.
- Abstract(参考訳): パーソナライズされたレビューベースレーティング予測は、既存のレビューを活用してユーザ興味やアイテム特性をモデル化することを目的としている。
現存する研究の多くは主に2つの問題に直面している。
まず、各レビューのきめ細かい部分に含まれる豊富な知識と知識グラフは、ユーザとイテムの相互作用をモデル化するための純粋なテキストを補完するものとして、ほとんど考えられない。
第二に、事前学習された言語モデルのパワーは、パーソナライズされたレビューベースの評価予測のために慎重に研究されていない。
本稿では,事前学習型言語モデル(kcf-plm)を用いた知識認識協調フィルタリング手法を提案する。
最初の問題として、豊富な知識を活用するために、KCF-PLMは、抽出されたアスペクトの相互作用をユーザ-イテム対としてモデル化するトランスフォーマーネットワークを開発した。
2つ目の問題として、ユーザとアイテムをより良く表現するために、KCF-PLMは、事前訓練された言語モデルへの入力として、ユーザまたはアイテムの履歴レビューをすべて取ります。
さらに、KCF-PLMは、知識グラフ上での表現伝搬とアスペクト表現の注意喚起により、トランスフォーマーネットワークと事前訓練された言語モデルを統合する。
したがって、KCF-PLMはレビューテキスト、アスペクト、知識グラフ、事前訓練された言語モデルを組み合わせてレビューベースの評価予測を行う。
我々は、KCF-PLMの有効性を実証し、いくつかの公開データセットに関する包括的な実験を行う。
関連論文リスト
- Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - How Language Models Prioritize Contextual Grammatical Cues? [3.9790222241649587]
複数のジェンダーキュー語が存在する場合、言語モデルがジェンダー合意をどのように扱うかを検討する。
この結果から,エンコーダベースのモデルとデコーダベースのモデルでは,予測にコンテキスト情報を優先し,使用する方法に顕著な違いが認められた。
論文 参考訳(メタデータ) (2024-10-04T14:09:05Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [71.85120354973073]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - FLASK: Fine-grained Language Model Evaluation based on Alignment Skill Sets [69.91340332545094]
FLASKは、人間に基づく評価とモデルに基づく評価の両方のためのきめ細かい評価プロトコルである。
モデル性能の全体像を得るためには,評価の微粒化が重要であることを実験的に観察する。
論文 参考訳(メタデータ) (2023-07-20T14:56:35Z) - Training Language Models with Language Feedback at Scale [50.70091340506957]
我々は、より情報的な言語フィードバックを利用する新しいアプローチであるLanguage Feedback (ILF)から学習を導入する。
ILFは3つのステップから成り、まず言語モデルを入力に条件付けし、最初のLM出力を出力し、改善を生成する。
理論的には、ILFは人間からのフィードバックによる強化学習と同様、ベイズ推論とみなすことができる。
論文 参考訳(メタデータ) (2023-03-28T17:04:15Z) - Federated Learning from Pre-Trained Models: A Contrastive Learning
Approach [43.893267526525904]
Federated Learning(FL)は、分散型クライアントがプライベートデータを共有せずに協調的に学習できる機械学習パラダイムである。
過剰な計算と通信要求は、現在のFLフレームワークに課題をもたらす。
本稿では、クライアントが複数の固定された事前学習モデルによって生成された表現を融合させることを共同で学習する軽量フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-21T03:16:57Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Tracing Origins: Coref-aware Machine Reading Comprehension [43.352833140317486]
そこで,本研究では,アナフォリック表現を接続する際の人間の読影過程を模倣し,コア参照情報を活用し,事前学習モデルから単語の埋め込みを強化する。
学習段階におけるコア参照情報の明示的な組み込みは,事前学習言語モデルの訓練において,コア参照情報の組み込みよりも優れていたことを実証した。
論文 参考訳(メタデータ) (2021-10-15T09:28:35Z) - Intuitively Assessing ML Model Reliability through Example-Based
Explanations and Editing Model Inputs [19.09848738521126]
解釈可能性メソッドは、機械学習モデルの能力に対する信頼の構築と理解を支援することを目的とする。
モデル信頼性をより直感的に評価するための2つのインターフェースモジュールを紹介します。
論文 参考訳(メタデータ) (2021-02-17T02:41:32Z) - Behind the Scene: Revealing the Secrets of Pre-trained
Vision-and-Language Models [65.19308052012858]
最近のTransformerベースの大規模事前学習モデルは、視覚言語(V+L)研究に革命をもたらした。
VALUEは,マルチモーダル事前学習における内部動作の解明を目的とした,精密に設計された探索タスクのセットである。
主要な観察:事前訓練されたモデルは、推論中の画像よりもテキストに出席する傾向を示す。
論文 参考訳(メタデータ) (2020-05-15T01:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。