論文の概要: KGLens: A Parameterized Knowledge Graph Solution to Assess What an LLM
Does and Doesn't Know
- arxiv url: http://arxiv.org/abs/2312.11539v2
- Date: Fri, 16 Feb 2024 17:41:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 19:46:30.482851
- Title: KGLens: A Parameterized Knowledge Graph Solution to Assess What an LLM
Does and Doesn't Know
- Title(参考訳): KGLens: LLMがしていることと知らないことを評価するためのパラメータ化された知識グラフソリューション
- Authors: Shangshang Zheng, He Bai, Yizhe Zhang, Yi Su, Xiaochuan Niu, Navdeep
Jaitly
- Abstract要約: KGLensは、知識グラフと大規模言語モデルのアライメントを測定することを目的とした、新しいフレームワークである。
KGLensは、KGを自然言語に変換するためのグラフ誘導質問生成器を備えている。
- 参考スコア(独自算出の注目度): 23.879958091270463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Measuring the alignment between a Knowledge Graph (KG) and Large Language
Models (LLMs) is an effective method to assess the factualness and identify the
knowledge blind spots of LLMs. However, this approach encounters two primary
challenges including the translation of KGs into natural language and the
efficient evaluation of these extensive and complex structures. In this paper,
we present KGLens--a novel framework aimed at measuring the alignment between
KGs and LLMs, and pinpointing the LLMs' knowledge deficiencies relative to KGs.
KGLens features a graph-guided question generator for converting KGs into
natural language, along with a carefully designed sampling strategy based on
parameterized KG structure to expedite KG traversal. We conducted experiments
using three domain-specific KGs from Wikidata, which comprise over 19,000
edges, 700 relations, and 21,000 entities. Our analysis across eight LLMs
reveals that KGLens not only evaluates the factual accuracy of LLMs more
rapidly but also delivers in-depth analyses on topics, temporal dynamics, and
relationships. Furthermore, human evaluation results indicate that KGLens can
assess LLMs with a level of accuracy nearly equivalent to that of human
annotators, achieving 95.7% of the accuracy rate.
- Abstract(参考訳): 知識グラフ(KG)とLarge Language Models(LLM)のアライメントを測定することは,現実性を評価し,LLMの知識盲点を特定する効果的な方法である。
しかし、このアプローチは、自然言語へのkgの翻訳と、これら広範囲で複雑な構造の効率的な評価という2つの主要な課題に遭遇する。
本稿では、KGLensについて、KGsとLLMsのアライメントを測定し、KGsに対するLLMsの知識不足を指摘するための新しいフレームワークを提案する。
kglensは、自然言語に変換するためのグラフガイド付き質問生成器と、パラメータ化されたkg構造に基づいた注意深く設計されたサンプリング戦略を備えている。
Wikidataの3つのドメイン固有KGを用いて,19,000のエッジ,700のリレーション,21,000のエンティティからなる実験を行った。
8 llm を対象に分析した結果,kglens は llm の事実的正確性をより迅速に評価するだけでなく,トピックや時間的ダイナミクス,関係性について詳細な分析を行うことができた。
さらに、人間の評価結果は、KGLensが人間のアノテーションとほぼ同等の精度でLSMを評価し、精度の95.7%に達することを示唆している。
関連論文リスト
- Can LLMs be Good Graph Judger for Knowledge Graph Construction? [33.958327252291]
本稿では,上記の課題に対処するための知識グラフ構築フレームワークであるGraphJudgerを提案する。
提案手法には,エンティティ中心の反復的テキスト記述,知識認識型指導チューニング,グラフ判断の3つの革新的なモジュールが導入されている。
2つの一般的なテキストグラフペアデータセットと1つのドメイン固有のテキストグラフペアデータセットによる実験は、ベースライン法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2024-11-26T12:46:57Z) - Simple is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [83.28737898989694]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - MKGL: Mastery of a Three-Word Language [48.04522048179973]
専門的なKG言語(KGL)を導入し、ある文は、エンティティ名詞、関係動詞、そして他のエンティティ名詞で終わる。
KGLのLLMに対する不慣れな語彙にもかかわらず、我々はその学習を調整された辞書とイラストレーション文を通して促進する。
以上の結果から,従来のKG埋め込み法と比較して,LLMはKGLの流速を著しく低減できることがわかった。
論文 参考訳(メタデータ) (2024-10-10T01:39:26Z) - Knowledge Graph-Enhanced Large Language Models via Path Selection [58.228392005755026]
大規模言語モデル(LLM)は、様々な現実世界のアプリケーションで前例のない性能を示している。
LLMは実際に不正確な出力、すなわち幻覚の問題を発生させることが知られている。
上記の問題に対処する3段階の原理的フレームワークKELPを提案する。
論文 参考訳(メタデータ) (2024-06-19T21:45:20Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Knowledge Graph Large Language Model (KG-LLM) for Link Prediction [43.55117421485917]
本稿では,知識グラフタスクに大規模言語モデル(LLM)を活用する新しいフレームワークである知識グラフ大言語モデル(KG-LLM)を紹介する。
まず、構造化知識グラフデータを自然言語に変換し、次にこれらの自然言語プロンプトを微調整 LLM に変換する。
KG-LLMフレームワークの有効性を示すため,Flan-T5,LLaMa2,Gemmaの3つのLLMを微調整した。
論文 参考訳(メタデータ) (2024-03-12T04:47:29Z) - Large Language Models Can Better Understand Knowledge Graphs Than We Thought [13.336418752729987]
知識グラフ(KG) モデルパラメータの埋め込みはますますコストがかかる。
現在のプロンプト方式は、しばしばトライアル・アンド・エラー方式に依存している。
非順序線形化三重項は、流線型NLテキストと比較して、LLMのKG理解に有効であることを示す。
論文 参考訳(メタデータ) (2024-02-18T10:44:03Z) - KG-Agent: An Efficient Autonomous Agent Framework for Complex Reasoning
over Knowledge Graph [134.8631016845467]
我々は、KG-Agentと呼ばれる自律LLMベースのエージェントフレームワークを提案する。
KG-Agentでは、LLM、多機能ツールボックス、KGベースのエグゼキュータ、知識メモリを統合する。
有効性を保証するため、プログラム言語を利用してKG上のマルチホップ推論プロセスを定式化する。
論文 参考訳(メタデータ) (2024-02-17T02:07:49Z) - Unifying Large Language Models and Knowledge Graphs: A Roadmap [61.824618473293725]
大規模言語モデル(LLM)は、自然言語処理と人工知能の分野で新たな波を発生させている。
知識グラフ(KG)、ウィキペディア、フアプ(英語版)は、豊富な事実知識を明示的に記憶する構造化された知識モデルである。
論文 参考訳(メタデータ) (2023-06-14T07:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。