論文の概要: Knowledge Graphs as Context Sources for LLM-Based Explanations of
Learning Recommendations
- arxiv url: http://arxiv.org/abs/2403.03008v1
- Date: Tue, 5 Mar 2024 14:41:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 14:30:03.055598
- Title: Knowledge Graphs as Context Sources for LLM-Based Explanations of
Learning Recommendations
- Title(参考訳): 学習レコメンデーションのllmに基づく説明のためのコンテキストソースとしての知識グラフ
- Authors: Hasan Abu-Rasheed, Christian Weber, Madjid Fathi
- Abstract要約: 大規模言語モデル(LLM)と生成AIは、最近、人間のような説明を生成するための新しい扉を開いた。
本稿では,知識グラフ(KG)を現実的文脈の源泉として利用する手法を提案する。
知識グラフのセマンティックな関係を利用して、学習勧告に関するキュレートされた知識を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of personalized education, the provision of comprehensible
explanations for learning recommendations is of a great value to enhance the
learner's understanding and engagement with the recommended learning content.
Large language models (LLMs) and generative AI in general have recently opened
new doors for generating human-like explanations, for and along learning
recommendations. However, their precision is still far away from acceptable in
a sensitive field like education. To harness the abilities of LLMs, while still
ensuring a high level of precision towards the intent of the learners, this
paper proposes an approach to utilize knowledge graphs (KG) as a source of
factual context, for LLM prompts, reducing the risk of model hallucinations,
and safeguarding against wrong or imprecise information, while maintaining an
application-intended learning context. We utilize the semantic relations in the
knowledge graph to offer curated knowledge about learning recommendations. With
domain-experts in the loop, we design the explanation as a textual template,
which is filled and completed by the LLM. Domain experts were integrated in the
prompt engineering phase as part of a study, to ensure that explanations
include information that is relevant to the learner. We evaluate our approach
quantitatively using Rouge-N and Rouge-L measures, as well as qualitatively
with experts and learners. Our results show an enhanced recall and precision of
the generated explanations compared to those generated solely by the GPT model,
with a greatly reduced risk of generating imprecise information in the final
learning explanation.
- Abstract(参考訳): パーソナライズされた教育の時代には,学習内容に対する学習者の理解とエンゲージメントを高めるために,学習推薦のための理解可能な説明の提供が重要である。
大規模言語モデル(LLM)とジェネレーティブAI(ジェネレーティブAI)は、最近、人間のような説明を生成するための新しい扉を開いた。
しかし、その正確さは教育のようなセンシティブな分野ではまだ受け入れられていない。
学習者の意図に対する高い精度を確保しつつ,LLMの能力を活用するために,LLMプロンプトにおける知識グラフ(KG)を現実的コンテキストの源泉として活用し,モデル幻覚のリスクを低減し,誤った情報や不正確な情報の保護を図りながら,アプリケーション指向の学習コンテキストを維持しながら,知識グラフ(KG)を活用するアプローチを提案する。
知識グラフのセマンティックな関係を利用して、学習勧告に関するキュレートされた知識を提供する。
ドメイン・エキスパートをループに配置することで、LLMで満たされ完成されるテキストテンプレートとして説明を設計する。
ドメインの専門家は、学習者に関連する情報を含む説明を確実にするために、研究の一環として即席のエンジニアリングフェーズに統合されました。
本研究では,ルージュNとルージュLを定量的に評価し,専門家や学習者と質的に検討した。
その結果, GPTモデルのみによって生成されたものと比較して, 生成した説明のリコールと精度が向上し, 最終学習説明において不正確な情報を生成するリスクが大幅に低減された。
関連論文リスト
- GIVE: Structured Reasoning with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを統合する新しい推論フレームワークである。
本手法は,ゴールド回答検索ではなく,専門家の問題解決に類似した論理的・段階的推論手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs [55.317267269115845]
Chain-of-Knowledge (CoK)は知識推論のための包括的なフレームワークである。
CoKにはデータセット構築とモデル学習の両方のための方法論が含まれている。
KnowReasonで広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-30T10:49:32Z) - Infusing Knowledge into Large Language Models with Contextual Prompts [5.865016596356753]
入力テキスト中の文脈からプロンプトを生成することにより,知識注入のためのシンプルだが一般化可能なアプローチを提案する。
本実験は, 微調整LDMを用いて評価する手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-03T11:19:26Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Leveraging Knowledge and Reinforcement Learning for Enhanced Reliability
of Language Models [10.10140327060947]
本研究では,知識グラフの埋め込みとしてコンセプションネットやウィキペディアの知識を統合するために,強化学習を活用する知識誘導型LMアンサンブルアプローチについて検討する。
このアプローチは、データセットの情報不足を補うために外部知識に頼った人間のアノテーションを模倣する。
9つのGLUEデータセットを通して、我々の研究は、アンサンブルが信頼性と精度のスコアを強化し、技術の性能を向上することを示した。
論文 参考訳(メタデータ) (2023-08-25T16:11:08Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。