論文の概要: KGGen: Extracting Knowledge Graphs from Plain Text with Language Models
- arxiv url: http://arxiv.org/abs/2502.09956v1
- Date: Fri, 14 Feb 2025 07:28:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:48:52.906844
- Title: KGGen: Extracting Knowledge Graphs from Plain Text with Language Models
- Title(参考訳): KGGen: 言語モデルによるプレーンテキストからの知識グラフの抽出
- Authors: Belinda Mo, Kyssen Yu, Joshua Kazdan, Proud Mpala, Lisa Yu, Chris Cundy, Charilaos Kanatsoulis, Sanmi Koyejo,
- Abstract要約: 抽出されたKGの空間性を低減するために,関連エンティティをクラスタリングするテキスト・ツー・KGジェネレータ(KGGen)を提案する。
KGGenはPythonライブラリ(textttpip install kg-gen)として利用可能で、誰でもアクセスできる。
KGGenとともに、最初のベンチマークである、ノードとエッジにおける情報の計測(MINE)をリリースし、プレーンテキストから有用なKGを生成する抽出器の能力をテストする。
- 参考スコア(独自算出の注目度): 12.937091556995039
- License:
- Abstract: Recent interest in building foundation models for KGs has highlighted a fundamental challenge: knowledge-graph data is relatively scarce. The best-known KGs are primarily human-labeled, created by pattern-matching, or extracted using early NLP techniques. While human-generated KGs are in short supply, automatically extracted KGs are of questionable quality. We present a solution to this data scarcity problem in the form of a text-to-KG generator (KGGen), a package that uses language models to create high-quality graphs from plaintext. Unlike other KG extractors, KGGen clusters related entities to reduce sparsity in extracted KGs. KGGen is available as a Python library (\texttt{pip install kg-gen}), making it accessible to everyone. Along with KGGen, we release the first benchmark, Measure of of Information in Nodes and Edges (MINE), that tests an extractor's ability to produce a useful KG from plain text. We benchmark our new tool against existing extractors and demonstrate far superior performance.
- Abstract(参考訳): KGの基盤モデル構築に対する最近の関心は、知識グラフデータが比較的少ないという根本的な課題を浮き彫りにした。
最もよく知られているKGは、主にヒトラベルで、パターンマッチングによって生成されるか、初期のNLP技術を用いて抽出される。
人為的なKGは不足しているが、自動的に抽出されるKGは疑わしい品質である。
本稿では,テキスト・トゥ・KGジェネレータ(KGGen)という言語モデルを用いて,平文から高品質なグラフを生成するパッケージの形で,このデータ不足問題の解決法を提案する。
他のKG抽出器とは異なり、KGGenクラスター関連物質は抽出されたKGの空間性を減少させる。
KGGenはPythonライブラリ(\texttt{pip install kg-gen})として利用可能で、誰でもアクセスできる。
KGGenとともに、最初のベンチマークである、ノードとエッジの情報の計測(MINE)をリリースし、プレーンテキストから有用なKGを生成する抽出器の能力をテストする。
既存の抽出器に対して新しいツールをベンチマークし、はるかに優れた性能を示す。
関連論文リスト
- Ontology-grounded Automatic Knowledge Graph Construction by LLM under Wikidata schema [60.42231674887294]
本稿では,Large Language Models (LLMs) を用いた知識グラフ構築のためのオントロジー的アプローチを提案する。
我々は、一貫性と解釈可能性を確保するために、抽出された関係に基づいて、著者によるオントロジーによるKGの基底生成を行う。
我々の研究は、人間の介入を最小限に抑えたスケーラブルなKG建設パイプラインの実現に向けて有望な方向を示し、高品質で人間に解釈可能なKGを生み出す。
論文 参考訳(メタデータ) (2024-12-30T13:36:05Z) - Distill-SynthKG: Distilling Knowledge Graph Synthesis Workflow for Improved Coverage and Efficiency [59.6772484292295]
大規模言語モデル(LLM)によって生成される知識グラフ(KG)は、検索・拡張生成(RAG)アプリケーションにとってますます価値が増している。
既存のKG抽出法は、大規模コーパスの処理に非効率なプロンプトベースのアプローチに依存している。
LLMに基づく多段階文書レベルのKGワークフローであるSynthKGを提案する。
我々はまた、RAGのための新しいグラフベースの検索フレームワークを設計する。
論文 参考訳(メタデータ) (2024-10-22T00:47:54Z) - FedMKGC: Privacy-Preserving Federated Multilingual Knowledge Graph
Completion [21.4302940596294]
知識グラフ補完(KGC)は、知識グラフ(KG)の欠落事実を予測することを目的とする。
KG間で生データを転送することに依存する従来の方法は、プライバシー上の懸念を提起している。
我々は、生データ交換やエンティティアライメントを必要とせずに、複数のKGから暗黙的に知識を集約する新しい連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-17T08:09:27Z) - Can Knowledge Graphs Simplify Text? [17.642947840076577]
KGSimpleは教師なしのテキスト単純化の新しいアプローチである。
我々のモデルは、重要な情報を保持することを学ぶことで、KGから始めるときのテキストを単純化することができる。
現在利用可能なKG-to-textデータセット上で、KGSimpleモデルの様々な設定を評価する。
論文 参考訳(メタデータ) (2023-08-14T07:20:49Z) - Knowledge Graph-Augmented Language Models for Knowledge-Grounded
Dialogue Generation [58.65698688443091]
我々は、知識グラフ(KGs)を用いた文脈関連および知識基底対話を生成するためのフレームワークであるSUbgraph Retrieval-augmented GEneration (SURGE)を提案する。
我々のフレームワークはまずKGから関連するサブグラフを取得し、その後、検索したサブグラフによって条件付けられた単語の埋め込みを摂動することで、事実間の一貫性を強制する。
我々は,OpendialKGとKOMODISデータセットのSURGEフレームワークを検証し,KGの知識を忠実に反映した高品質な対話を生成することを示す。
論文 参考訳(メタデータ) (2023-05-30T08:36:45Z) - LambdaKG: A Library for Pre-trained Language Model-Based Knowledge Graph
Embeddings [32.371086902570205]
本稿では,知識グラフ補完,質問応答,推薦,知識探索のためのライブラリLambdaKGを紹介する。
LambdaKGはhttps://github.com/zjunlp/PromptKG/tree/main/lambdaKGで公開されている。
論文 参考訳(メタデータ) (2022-10-01T16:01:53Z) - Collaborative Knowledge Graph Fusion by Exploiting the Open Corpus [59.20235923987045]
知識表現の質を維持しながら、新たに収穫した3倍の知識グラフを豊かにすることは困難である。
本稿では,付加コーパスから得られる情報を用いてKGを精製するシステムを提案する。
論文 参考訳(メタデータ) (2022-06-15T12:16:10Z) - Language Models are Open Knowledge Graphs [75.48081086368606]
近年の深層言語モデルは,事前学習を通じて大規模コーパスから知識を自動取得する。
本稿では,言語モデルに含まれる知識をKGにキャストするための教師なし手法を提案する。
KGは、コーパス上の(微調整なしで)事前訓練された言語モデルの1つの前方パスで構築されていることを示す。
論文 参考訳(メタデータ) (2020-10-22T18:01:56Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。