論文の概要: GKG-LLM: A Unified Framework for Generalized Knowledge Graph Construction
- arxiv url: http://arxiv.org/abs/2503.11227v1
- Date: Fri, 14 Mar 2025 09:23:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:07:50.461104
- Title: GKG-LLM: A Unified Framework for Generalized Knowledge Graph Construction
- Title(参考訳): GKG-LLM: 汎用知識グラフ構築のための統一フレームワーク
- Authors: Jian Zhang, Bifan Wei, Shihao Qi, haiping Zhu, Jun Liu, Qika Lin,
- Abstract要約: 一般化知識グラフを構築するための統一的なフレームワークを提案する。
まず、3種類のグラフにまたがる29のデータセットで15のサブタスクからデータを収集する。
そこで我々は,3種類のグラフからの知識を大規模言語モデルに反復的に注入することにより,3段階のカリキュラム学習微調整フレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.575505739575023
- License:
- Abstract: The construction of Generalized Knowledge Graph (GKG), including knowledge graph, event knowledge graph and commonsense knowledge graph, is fundamental for various natural language processing tasks. Current studies typically construct these types of graph separately, overlooking holistic insights and potential unification that could be beneficial in computing resources and usage perspectives. However, a key challenge in developing a unified framework for GKG is obstacles arising from task-specific differences. In this study, we propose a unified framework for constructing generalized knowledge graphs to address this challenge. First, we collect data from 15 sub-tasks in 29 datasets across the three types of graphs, categorizing them into in-sample, counter-task, and out-of-distribution (OOD) data. Then, we propose a three-stage curriculum learning fine-tuning framework, by iteratively injecting knowledge from the three types of graphs into the Large Language Models. Extensive experiments show that our proposed model improves the construction of all three graph types across in-domain, OOD and counter-task data.
- Abstract(参考訳): 知識グラフ,イベント知識グラフ,コモンセンス知識グラフなどを含む一般化知識グラフ(GKG)の構築は,自然言語処理タスクの基本となる。
現在の研究は、一般的にこれらのグラフを別々に構築し、コンピュータ資源や利用の観点から有益な総合的な洞察と潜在的な統合を見越す。
しかし、GKGの統一フレームワークを開発する上で重要な課題は、タスク固有の違いから生じる障害である。
本研究では,この課題に対処するために,一般化知識グラフを構築するための統一的な枠組みを提案する。
まず、29のデータセットで15のサブタスクからデータを収集し、それらをインサンプル、カウンタータスク、アウト・オブ・ディストリビューション(OOD)データに分類する。
そこで我々は,3種類のグラフからの知識を大規模言語モデルに反復的に注入することにより,3段階のカリキュラム学習微調整フレームワークを提案する。
大規模な実験により,提案モデルにより,ドメイン内,OOD,対タスクデータにまたがる3種類のグラフの構成が改善された。
関連論文リスト
- Towards Graph Foundation Models: Learning Generalities Across Graphs via Task-Trees [50.78679002846741]
グラフにおけるクロスタスクの一般性を学習するための新しいアプローチを提案する。
グラフ上のタスク空間を整列させるための基本的な学習インスタンスとしてタスクツリーを提案する。
その結果,グラフニューラルネットワークが多種多様なタスクツリーで事前訓練された場合,伝達可能な知識を取得することが示唆された。
論文 参考訳(メタデータ) (2024-12-21T02:07:43Z) - Towards Graph Foundation Models: The Perspective of Zero-shot Reasoning on Knowledge Graphs [14.392577069212292]
我々は、ゼロショット学習を用いて、多様なグラフタスクを効果的に一般化する統合グラフ推論フレームワークSCOREを紹介する。
SCOREを38種類のグラフデータセットを用いて評価し、ノードレベル、リンクレベル、グラフレベルのタスクを複数のドメインでカバーする。
論文 参考訳(メタデータ) (2024-10-16T14:26:08Z) - Towards Graph Prompt Learning: A Survey and Beyond [38.55555996765227]
大規模"事前訓練と迅速な学習"パラダイムは、顕著な適応性を示している。
この調査は、この分野における100以上の関連する研究を分類し、一般的な設計原則と最新の応用を要約する。
論文 参考訳(メタデータ) (2024-08-26T06:36:42Z) - Exploring Large Language Models for Knowledge Graph Completion [15.68895534638716]
我々は知識グラフのトリプルをテキストシーケンスとみなし、知識グラフLLMと呼ばれる革新的なフレームワークを導入する。
提案手法では,三重項の実体的記述と関係的記述をプロンプトとして利用し,その応答を予測に利用する。
種々のベンチマーク知識グラフを用いた実験により,三重分類や関係予測といったタスクにおいて,本手法が最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-08-26T16:51:17Z) - Graph Pooling for Graph Neural Networks: Progress, Challenges, and
Opportunities [128.55790219377315]
グラフニューラルネットワークは多くのグラフレベルのタスクの主要なアーキテクチャとして登場した。
グラフプーリングは、グラフ全体の全体的グラフレベル表現を得るためには不可欠である。
論文 参考訳(メタデータ) (2022-04-15T04:02:06Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。