論文の概要: Learning Structure and Knowledge Aware Representation with Large Language Models for Concept Recommendation
- arxiv url: http://arxiv.org/abs/2405.12442v1
- Date: Tue, 21 May 2024 01:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 14:38:05.033990
- Title: Learning Structure and Knowledge Aware Representation with Large Language Models for Concept Recommendation
- Title(参考訳): 概念推薦のための大規模言語モデルを用いた構造学習と知識認識
- Authors: Qingyao Li, Wei Xia, Kounianhua Du, Qiji Zhang, Weinan Zhang, Ruiming Tang, Yong Yu,
- Abstract要約: 概念推薦は,学習者が自身の知識状態と人間の知識システムに基づいて学習する次の概念を提案することを目的としている。
従来のアプローチでは、人間の知識システムをこれらの教育モデルを設計するプロセスに効果的に統合していない。
SKarREC(Structure and Knowledge Aware Representation Learning framework for concept Recommendation)を提案する。
- 参考スコア(独自算出の注目度): 50.31872005772817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept recommendation aims to suggest the next concept for learners to study based on their knowledge states and the human knowledge system. While knowledge states can be predicted using knowledge tracing models, previous approaches have not effectively integrated the human knowledge system into the process of designing these educational models. In the era of rapidly evolving Large Language Models (LLMs), many fields have begun using LLMs to generate and encode text, introducing external knowledge. However, integrating LLMs into concept recommendation presents two urgent challenges: 1) How to construct text for concepts that effectively incorporate the human knowledge system? 2) How to adapt non-smooth, anisotropic text encodings effectively for concept recommendation? In this paper, we propose a novel Structure and Knowledge Aware Representation learning framework for concept Recommendation (SKarREC). We leverage factual knowledge from LLMs as well as the precedence and succession relationships between concepts obtained from the knowledge graph to construct textual representations of concepts. Furthermore, we propose a graph-based adapter to adapt anisotropic text embeddings to the concept recommendation task. This adapter is pre-trained through contrastive learning on the knowledge graph to get a smooth and structure-aware concept representation. Then, it's fine-tuned through the recommendation task, forming a text-to-knowledge-to-recommendation adaptation pipeline, which effectively constructs a structure and knowledge-aware concept representation. Our method does a better job than previous adapters in transforming text encodings for application in concept recommendation. Extensive experiments on real-world datasets demonstrate the effectiveness of the proposed approach.
- Abstract(参考訳): 概念推薦は,学習者が自身の知識状態と人間の知識システムに基づいて学習する次の概念を提案することを目的としている。
知識状態は知識追跡モデルを用いて予測できるが、従来の手法では人間の知識システムをこれらの教育モデルの設計プロセスに効果的に統合していない。
急速に発展するLarge Language Models (LLM) の時代、多くの分野がLLMを使ってテキストを生成し、エンコードし、外部知識を導入してきた。
しかし、LLMをコンセプトレコメンデーションに統合することは、2つの緊急課題を提示する。
1)人間の知識システムを効果的に取り入れた概念のためのテキスト構築法
2) 概念推薦のための非平滑異方性テキストエンコーディングを効果的に適用する方法
本稿では,概念推薦(SKarREC)のための構造認識表現学習フレームワークを提案する。
我々は,LLMの事実知識と,知識グラフから得られた概念間の先行関係と継承関係を利用して,概念のテキスト表現を構築する。
さらに、異方性テキスト埋め込みを概念推薦タスクに適応させるグラフベースのアダプタを提案する。
このアダプタは知識グラフ上のコントラスト学習を通じて事前学習され、スムーズで構造に見合った概念表現が得られる。
そして、リコメンデーションタスクを通じて微調整を行い、構造と知識を意識した概念表現を効果的に構築するテキスト・ツー・ナレッジ・ツー・レコメンデーション適応パイプラインを形成する。
提案手法は, 従来のアダプタよりも, コンセプトレコメンデーションにおけるテキストエンコーディングの変換に適している。
実世界のデータセットに関する大規模な実験は、提案手法の有効性を実証している。
関連論文リスト
- Knowledge Transfer Across Modalities with Natural Language Supervision [8.493435472659646]
我々は,文章記述のみを用いて新しい概念を学習する方法を提示する。人間の知覚と同様に,異種間相互作用を活用して新しい概念を導入する。
知識伝達は, マルチモーダルモデルにおける新しい概念を, 極めて効率的な方法で導入できることを示す。
論文 参考訳(メタデータ) (2024-11-23T17:26:50Z) - Conceptual Codebook Learning for Vision-Language Models [27.68834532978939]
視覚言語モデル(VLM)の一般化能力向上のためのCodebook Learning(CoCoLe)を提案する。
視覚概念をキーとして,概念的プロンプトを値として,概念的コードブックを学習する。
この概念的コードブック学習法は,視覚的・言語的モダリティの高度化を実現することができる。
論文 参考訳(メタデータ) (2024-07-02T15:16:06Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - K-LITE: Learning Transferable Visual Models with External Knowledge [242.3887854728843]
K-LITE (Knowledge-augmented Language- Image Training and Evaluation) は、外部知識を活用して伝達可能な視覚システムを構築する戦略である。
トレーニングでは、WordNetとWiktionaryの知識で自然言語のエンティティを豊かにする。
評価において、自然言語は外部知識で拡張され、学習された視覚概念を参照するために使用される。
論文 参考訳(メタデータ) (2022-04-20T04:47:01Z) - Semantic TrueLearn: Using Semantic Knowledge Graphs in Recommendation
Systems [22.387120578306277]
本研究は,意味的関連性を取り入れた国家認識型教育レコメンデーションシステムの構築を目指している。
本稿では,ウィキペディアリンクグラフを用いた学習リソースにおける知識コンポーネント間の意味的関連性を利用した,新しい学習モデルを提案する。
大規模データセットを用いた実験により,TrueLearnアルゴリズムの新たなセマンティックバージョンが,予測性能の面で統計的に有意な改善を実現していることが示された。
論文 参考訳(メタデータ) (2021-12-08T16:23:27Z) - A Competence-aware Curriculum for Visual Concepts Learning via Question
Answering [95.35905804211698]
本稿では,視覚概念学習のための質問応答型カリキュラムを提案する。
視覚概念を学習するためのニューラルシンボリックな概念学習者と学習プロセスを導くための多次元項目応答理論(mIRT)モデルを設計する。
CLEVRの実験結果から,コンピテンスを意識したカリキュラムにより,提案手法は最先端のパフォーマンスを実現することが示された。
論文 参考訳(メタデータ) (2020-07-03T05:08:09Z) - Attentional Graph Convolutional Networks for Knowledge Concept
Recommendation in MOOCs in a Heterogeneous View [72.98388321383989]
大規模なオープンオンラインコース(MOOC)は、学生が知識を習得するための大規模かつオープンな学習機会を提供する。
学生の関心を惹きつけるため、MOOCsプロバイダによる推薦制度が採用され、学生にコースを推薦する。
そこで本研究では,MOOCにおける知識概念レコメンデーションのために,Attentional Heterogeneous Graph Convolutional Deep Knowledge Recommender (ACKRec) という,エンドツーエンドのグラフニューラルネットワークに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-23T18:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。