論文の概要: iText2KG: Incremental Knowledge Graphs Construction Using Large Language Models
- arxiv url: http://arxiv.org/abs/2409.03284v1
- Date: Thu, 5 Sep 2024 06:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 21:30:40.464051
- Title: iText2KG: Incremental Knowledge Graphs Construction Using Large Language Models
- Title(参考訳): iText2KG:大規模言語モデルを用いたインクリメンタル知識グラフの構築
- Authors: Yassir Lairgi, Ludovic Moncla, Rémy Cazabet, Khalid Benabdeslem, Pierre Cléau,
- Abstract要約: iText2KGは、後処理なしで漸進的にトピックに依存しない知識グラフを構築する方法である。
提案手法は,3つのシナリオにまたがるベースライン手法と比較して,優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.7165255458140439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most available data is unstructured, making it challenging to access valuable information. Automatically building Knowledge Graphs (KGs) is crucial for structuring data and making it accessible, allowing users to search for information effectively. KGs also facilitate insights, inference, and reasoning. Traditional NLP methods, such as named entity recognition and relation extraction, are key in information retrieval but face limitations, including the use of predefined entity types and the need for supervised learning. Current research leverages large language models' capabilities, such as zero- or few-shot learning. However, unresolved and semantically duplicated entities and relations still pose challenges, leading to inconsistent graphs and requiring extensive post-processing. Additionally, most approaches are topic-dependent. In this paper, we propose iText2KG, a method for incremental, topic-independent KG construction without post-processing. This plug-and-play, zero-shot method is applicable across a wide range of KG construction scenarios and comprises four modules: Document Distiller, Incremental Entity Extractor, Incremental Relation Extractor, and Graph Integrator and Visualization. Our method demonstrates superior performance compared to baseline methods across three scenarios: converting scientific papers to graphs, websites to graphs, and CVs to graphs.
- Abstract(参考訳): ほとんどの利用可能なデータは構造化されておらず、貴重な情報にアクセスすることは困難である。
知識グラフ(KG)の自動構築は、データを構造化し、アクセスしやすくするために不可欠である。
KGは洞察、推論、推論を促進する。
名前付きエンティティ認識や関係抽出などの従来のNLP手法は、事前定義されたエンティティタイプの使用や教師付き学習の必要性など、情報検索において重要な要素であるが、対面制限である。
現在の研究では、ゼロショット学習や少数ショット学習など、大きな言語モデルの能力を活用している。
しかし、未解決かつセマンティックに複製されたエンティティや関係は依然として問題を引き起こし、一貫性のないグラフと広範な後処理を必要とする。
さらに、ほとんどのアプローチはトピックに依存しています。
本稿では,ポストプロセッシングを使わずに,段階的かつトピックに依存しないKG構築手法iText2KGを提案する。
このプラグイン・アンド・プレイのゼロショット方式は、幅広いKG構成シナリオに適用可能であり、Document Distiller, Incremental Entity Extractor, Incremental Relation Extractor, Graph Integrator and Visualizationの4つのモジュールからなる。
提案手法は,科学論文をグラフに変換する,Webサイトをグラフに変換する,CVをグラフに変換する,という3つのシナリオにまたがるベースライン手法と比較して,優れた性能を示す。
関連論文リスト
- Can LLMs be Good Graph Judger for Knowledge Graph Construction? [33.958327252291]
本稿では,上記の課題に対処するための知識グラフ構築フレームワークであるGraphJudgerを提案する。
提案手法には,エンティティ中心の反復的テキスト記述,知識認識型指導チューニング,グラフ判断の3つの革新的なモジュールが導入されている。
2つの一般的なテキストグラフペアデータセットと1つのドメイン固有のテキストグラフペアデータセットによる実験は、ベースライン法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2024-11-26T12:46:57Z) - Konstruktor: A Strong Baseline for Simple Knowledge Graph Question Answering [60.6042489577575]
Konstruktor - 問題を3つのステップに分割する,効率的で堅牢なアプローチ。
我々のアプローチは言語モデルと知識グラフを統合し、前者の力と後者の解釈可能性を活用する。
関係検出において、ワークフローの最も困難なステップとして、関係分類・生成とランク付けの組み合わせが、他の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T09:19:11Z) - GLaM: Fine-Tuning Large Language Models for Domain Knowledge Graph Alignment via Neighborhood Partitioning and Generative Subgraph Encoding [39.67113788660731]
グラフ対応LAnguage Models (GLaM) を開発するためのフレームワークを紹介する。
特定のグラフに基づく知識でモデルを構築することは、構造に基づく推論のためのモデルの能力を拡張することを実証する。
論文 参考訳(メタデータ) (2024-02-09T19:53:29Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - EventNarrative: A large-scale Event-centric Dataset for Knowledge
Graph-to-Text Generation [8.216976747904726]
EventNarrativeは,約23万のグラフと,対応する自然言語テキストで構成されている。
私たちの目標は2つある – データが不足しているイベント中心の研究において,新たな基盤を突破する上で,研究者が明確に定義された大規模データセットを提供することです。
論文 参考訳(メタデータ) (2021-10-30T15:39:20Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。