論文の概要: EMERGE: A Benchmark for Updating Knowledge Graphs with Emerging Textual Knowledge
- arxiv url: http://arxiv.org/abs/2507.03617v1
- Date: Fri, 04 Jul 2025 14:43:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.803754
- Title: EMERGE: A Benchmark for Updating Knowledge Graphs with Emerging Textual Knowledge
- Title(参考訳): EMERGE:新しいテキスト知識を用いた知識グラフの更新ベンチマーク
- Authors: Klim Zaporojets, Daniel Daza, Edoardo Barba, Ira Assent, Roberto Navigli, Paul Groth,
- Abstract要約: Wikidata KGスナップショットとウィキペディアの文節からなるデータセットを生涯にわたって構築する手法を提案する。
結果として得られたデータセットは、2019年から2025年までのWikidataの10種類のスナップショットを合計125万KGで編集したウィキペディアの376K節で構成されている。
- 参考スコア(独自算出の注目度): 48.36331802345063
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Knowledge Graphs (KGs) are structured knowledge repositories containing entities and relations between them. In this paper, we investigate the problem of automatically updating KGs over time with respect to the evolution of knowledge in unstructured textual sources. This problem requires identifying a wide range of update operations based on the state of an existing KG at a specific point in time. This contrasts with traditional information extraction pipelines, which extract knowledge from text independently of the current state of a KG. To address this challenge, we propose a method for lifelong construction of a dataset consisting of Wikidata KG snapshots over time and Wikipedia passages paired with the corresponding edit operations that they induce in a particular KG snapshot. The resulting dataset comprises 376K Wikipedia passages aligned with a total of 1.25M KG edits over 10 different snapshots of Wikidata from 2019 to 2025. Our experimental results highlight challenges in updating KG snapshots based on emerging textual knowledge, positioning the dataset as a valuable benchmark for future research. We will publicly release our dataset and model implementations.
- Abstract(参考訳): 知識グラフ(KG)は、エンティティとそれらの関係を含む構造化された知識リポジトリである。
本稿では、構造化されていないテキストソースにおける知識の進化に関して、時間とともにKGを自動更新する問題を考察する。
この問題は、特定の時点における既存のKGの状態に基づいて、広範囲の更新操作を特定する必要がある。
これは、KGの現在の状態とは無関係にテキストから知識を抽出する従来の情報抽出パイプラインとは対照的である。
この課題に対処するため、Wikidata KGスナップショットとウィキペディアの文節を、特定のKGスナップショットで推論される対応する編集操作と組み合わせて、生涯にわたって構築する手法を提案する。
結果として得られたデータセットは、2019年から2025年までのWikidataの10種類のスナップショットを合計125万KGで編集したウィキペディアの376K節で構成されている。
実験の結果,新たなテキスト知識に基づいてKGスナップショットを更新する上での課題を取り上げ,データセットを将来の研究に有用なベンチマークとして位置付けた。
データセットとモデルの実装を公開します。
関連論文リスト
- Diagnosing and Addressing Pitfalls in KG-RAG Datasets: Toward More Reliable Benchmarking [56.27361644734853]
知識グラフ質問 回答システムは、複雑なマルチホップ推論を評価するために高品質なベンチマークに依存している。
広く使われているにもかかわらず、WebQSPやCWQのような一般的なデータセットは、重要な品質問題に悩まされている。
我々はこれらの落とし穴を体系的に解決するLLM-in-the-loopフレームワークであるKGQAGenを紹介する。
本研究は,KGQA評価を推し進めるスケーラブルなフレームワークとして,より厳密なベンチマーク構築とKGQAGenの位置づけを提唱する。
論文 参考訳(メタデータ) (2025-05-29T14:44:52Z) - Ontology-grounded Automatic Knowledge Graph Construction by LLM under Wikidata schema [60.42231674887294]
本稿では,Large Language Models (LLMs) を用いた知識グラフ構築のためのオントロジー的アプローチを提案する。
我々は、一貫性と解釈可能性を確保するために、抽出された関係に基づいて、著者によるオントロジーによるKGの基底生成を行う。
我々の研究は、人間の介入を最小限に抑えたスケーラブルなKG建設パイプラインの実現に向けて有望な方向を示し、高品質で人間に解釈可能なKGを生み出す。
論文 参考訳(メタデータ) (2024-12-30T13:36:05Z) - Text-To-KG Alignment: Comparing Current Methods on Classification Tasks [2.191505742658975]
知識グラフ(KG)は、事実情報の密集した構造化された表現を提供する。
最近の研究は、追加のコンテキストとしてKGから情報を取得するパイプラインモデルの作成に重点を置いている。
現在のメソッドが、アライメントされたサブグラフがクエリに完全に関連しているシナリオとどのように比較されているかは分かっていない。
論文 参考訳(メタデータ) (2023-06-05T13:45:45Z) - Editing Language Model-based Knowledge Graph Embeddings [40.12918266917595]
本稿では,言語モデルに基づく知識グラフの埋め込みを編集する新しいタスクを提案する。
このタスクは、他の側面のパフォーマンスを損なうことなく、高速でデータ効率のよいKG埋め込みの更新を容易にするように設計されている。
我々は、4つの新しいデータセットを構築し、提案した課題に対処する以前のモデルの限られた能力を示すいくつかの知識編集ベースラインを評価する。
論文 参考訳(メタデータ) (2023-01-25T04:45:06Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z) - Knowledge Graph Based Synthetic Corpus Generation for Knowledge-Enhanced
Language Model Pre-training [22.534866015730664]
我々は全英Wikidata KGを言語化した。
Wikidataのような包括的で百科事典的なKGを言語化することで、構造化されたKGと自然言語コーパスを統合することができることを示す。
論文 参考訳(メタデータ) (2020-10-23T22:14:50Z) - Language Models are Open Knowledge Graphs [75.48081086368606]
近年の深層言語モデルは,事前学習を通じて大規模コーパスから知識を自動取得する。
本稿では,言語モデルに含まれる知識をKGにキャストするための教師なし手法を提案する。
KGは、コーパス上の(微調整なしで)事前訓練された言語モデルの1つの前方パスで構築されていることを示す。
論文 参考訳(メタデータ) (2020-10-22T18:01:56Z) - Connecting the Dots: A Knowledgeable Path Generator for Commonsense
Question Answering [50.72473345911147]
本稿では、一般的な共通センスQAフレームワークを、知識のあるパスジェネレータで拡張する。
KGの既存のパスを最先端の言語モデルで外挿することで、ジェネレータはテキスト内のエンティティのペアを動的で、潜在的に新しいマルチホップリレーショナルパスに接続することを学びます。
論文 参考訳(メタデータ) (2020-05-02T03:53:21Z) - Entity Type Prediction in Knowledge Graphs using Embeddings [2.7528170226206443]
オープンナレッジグラフ(DBpedia、Wikidata、YAGOなど)は、データマイニングと情報検索の分野における多様なアプリケーションのバックボーンとして認識されている。
これらのKGのほとんどは、スナップショットからの自動情報抽出またはユーザーが提供する情報蓄積によって作成されるか、ウィキペディアを用いて作成される。
これらのKGの型情報は、しばしばうるさい、不完全、不正確である。
KG埋め込みを用いたエンティティタイピングのためのマルチラベル分類手法を提案する。
論文 参考訳(メタデータ) (2020-04-28T17:57:08Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。