論文の概要: From human experts to machines: An LLM supported approach to ontology
and knowledge graph construction
- arxiv url: http://arxiv.org/abs/2403.08345v1
- Date: Wed, 13 Mar 2024 08:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 15:16:16.860261
- Title: From human experts to machines: An LLM supported approach to ontology
and knowledge graph construction
- Title(参考訳): 人間の専門家から機械へ:LLMによるオントロジーへのアプローチ
知識グラフの構築は
- Authors: Vamsi Krishna Kommineni and Birgitta K\"onig-Ries and Sheeba Samuel
- Abstract要約: 大規模言語モデル(LLM)は、人間のような自然言語を理解し、生成する能力で最近人気を集めている。
本研究は,オープンソースLLMによって促進されるKGの半自動構築について考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The conventional process of building Ontologies and Knowledge Graphs (KGs)
heavily relies on human domain experts to define entities and relationship
types, establish hierarchies, maintain relevance to the domain, fill the ABox
(or populate with instances), and ensure data quality (including amongst others
accuracy and completeness). On the other hand, Large Language Models (LLMs)
have recently gained popularity for their ability to understand and generate
human-like natural language, offering promising ways to automate aspects of
this process. This work explores the (semi-)automatic construction of KGs
facilitated by open-source LLMs. Our pipeline involves formulating competency
questions (CQs), developing an ontology (TBox) based on these CQs, constructing
KGs using the developed ontology, and evaluating the resultant KG with minimal
to no involvement of human experts. We showcase the feasibility of our
semi-automated pipeline by creating a KG on deep learning methodologies by
exploiting scholarly publications. To evaluate the answers generated via
Retrieval-Augmented-Generation (RAG) as well as the KG concepts automatically
extracted using LLMs, we design a judge LLM, which rates the generated content
based on ground truth. Our findings suggest that employing LLMs could
potentially reduce the human effort involved in the construction of KGs,
although a human-in-the-loop approach is recommended to evaluate automatically
generated KGs.
- Abstract(参考訳): 従来のオントロジと知識グラフ(KG)の構築プロセスは、エンティティとリレーションタイプを定義し、階層を確立し、ドメインへの関連性を維持し、ABoxを埋めたり、データ品質(他の正確性や完全性を含む)を確保するために、人間ドメインの専門家に大きく依存しています。
一方、LLM(Large Language Models)は、人間のような自然言語を理解し、生成する能力で最近人気を集めており、このプロセスの側面を自動化するための有望な方法を提供する。
本研究は,オープンソースLLMによって促進されるKGの半自動構築について考察する。
我々のパイプラインは、能力質問(CQ)の定式化、これらのCQに基づくオントロジー(TBox)の開発、開発したオントロジーを用いたKGの構築、そして、結果のKGを、人間の専門家の関与を最小限からゼロに評価することを含む。
学術出版物を活用した深層学習手法のKGを作成することで,半自動パイプラインの実現可能性を示す。
LLMを用いて自動的に抽出されるKG概念だけでなく、検索-拡張-生成(RAG)を介して生成された回答を評価するために、地上の真実に基づいて生成されたコンテンツを評価する判断LSMを設計する。
以上の結果から,自動生成KGの評価には人為的アプローチが推奨されるが,LLMを用いた場合,KGs構築に関わる人的労力を削減できる可能性が示唆された。
関連論文リスト
- Knowledge Graph Large Language Model (KG-LLM) for Link Prediction [39.4203349659232]
本稿では,知識グラフにおけるマルチホップリンク予測を強化するために,知識グラフ大言語モデルフレームワーク(KG-LLM)を提案する。
知識グラフをチェーン・オブ・シークレットのプロンプトに変換することで、我々のフレームワークは、エンティティの潜在表現とその相互関係を識別し、学習するように設計されている。
論文 参考訳(メタデータ) (2024-03-12T04:47:29Z) - Counter-intuitive: Large Language Models Can Better Understand Knowledge
Graphs Than We Thought [14.48592647192298]
本稿では、知識グラフ(KG)を用いて、大規模言語モデル(LLM)推論機能の実現と幻覚の低減を図る。
我々は、複雑な質問応答(CQA)を用いて、LLMのKG知識の理解能力を評価する。
初期の期待とは対照的に,LLMは乱雑でノイズが多く,線形化されたKGの知識を効果的に扱えることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-18T10:44:03Z) - KG-Agent: An Efficient Autonomous Agent Framework for Complex Reasoning
over Knowledge Graph [134.8631016845467]
我々は、KG-Agentと呼ばれる自律LLMベースのエージェントフレームワークを提案する。
KG-Agentでは、LLM、多機能ツールボックス、KGベースのエグゼキュータ、知識メモリを統合する。
有効性を保証するため、プログラム言語を利用してKG上のマルチホップ推論プロセスを定式化する。
論文 参考訳(メタデータ) (2024-02-17T02:07:49Z) - An Open-Source Knowledge Graph Ecosystem for the Life Sciences [5.665519167428707]
PheKnowLatorは、存在論的基盤を持つ知識グラフの構築を自動化するセマンティックエコシステムである。
エコシステムには、KG構築リソース、分析ツール、ベンチマークが含まれている。
PheKnowLatorは、パフォーマンスやユーザビリティを損なうことなく、完全にカスタマイズ可能なKGを可能にする。
論文 参考訳(メタデータ) (2023-07-11T18:55:09Z) - Unifying Large Language Models and Knowledge Graphs: A Roadmap [61.824618473293725]
大規模言語モデル(LLM)は、自然言語処理と人工知能の分野で新たな波を発生させている。
知識グラフ(KG)、ウィキペディア、フアプ(英語版)は、豊富な事実知識を明示的に記憶する構造化された知識モデルである。
論文 参考訳(メタデータ) (2023-06-14T07:15:26Z) - LLMs for Knowledge Graph Construction and Reasoning: Recent Capabilities
and Future Opportunities [68.86209486449924]
知識グラフ(KG)の構築と推論のための大規模言語モデル(LLM)の評価。
我々は,LLMと外部ソースを用いたマルチエージェントベースのアプローチであるAutoKGを提案し,KGの構築と推論を行う。
論文 参考訳(メタデータ) (2023-05-22T15:56:44Z) - Empowering Language Models with Knowledge Graph Reasoning for Question
Answering [117.79170629640525]
我々はknOwledge ReasOning empowered Language Model (OREO-LM)を提案する。
OREO-LMは、既存のTransformerベースのLMに柔軟に接続できる新しい知識相互作用層で構成されている。
クローズド・ブック・セッティングにおいて,最先端の成果が得られ,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-15T18:26:26Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z) - Language Models are Open Knowledge Graphs [75.48081086368606]
近年の深層言語モデルは,事前学習を通じて大規模コーパスから知識を自動取得する。
本稿では,言語モデルに含まれる知識をKGにキャストするための教師なし手法を提案する。
KGは、コーパス上の(微調整なしで)事前訓練された言語モデルの1つの前方パスで構築されていることを示す。
論文 参考訳(メタデータ) (2020-10-22T18:01:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。