論文の概要: Towards a GML-Enabled Knowledge Graph Platform
- arxiv url: http://arxiv.org/abs/2303.02166v1
- Date: Fri, 3 Mar 2023 17:41:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 21:20:02.673021
- Title: Towards a GML-Enabled Knowledge Graph Platform
- Title(参考訳): GML対応知識グラフプラットフォームを目指して
- Authors: Hussein Abdallah, Essam Mansour
- Abstract要約: 本稿では、RDFエンジン上のサービスとして、オンデマンドグラフ機械学習(GML)であるKGNetを提案する。
KGNetはタスク固有のサブグラフを識別することで、KG上でGMLモデルのトレーニングを自動化する。
トレーニングされたモデルはすべて、SPARQLライクなクエリを通じてアクセス可能である。
- 参考スコア(独自算出の注目度): 0.5904265865319825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This vision paper proposes KGNet, an on-demand graph machine learning (GML)
as a service on top of RDF engines to support GML-enabled SPARQL queries. KGNet
automates the training of GML models on a KG by identifying a task-specific
subgraph. This helps reduce the task-irrelevant KG structure and properties for
better scalability and accuracy. While training a GML model on KG, KGNet
collects metadata of trained models in the form of an RDF graph called KGMeta,
which is interlinked with the relevant subgraphs in KG. Finally, all trained
models are accessible via a SPARQL-like query. We call it a GML-enabled query
and refer to it as SPARQLML. KGNet supports SPARQLML on top of existing RDF
engines as an interface for querying and inferencing over KGs using GML models.
The development of KGNet poses research opportunities in several areas,
including meta-sampling for identifying task-specific subgraphs, GML pipeline
automation with computational constraints, such as limited time and memory
budget, and SPARQLML query optimization. KGNet supports different GML tasks,
such as node classification, link prediction, and semantic entity matching. We
evaluated KGNet using two real KGs of different application domains. Compared
to training on the entire KG, KGNet significantly reduced training time and
memory usage while maintaining comparable or improved accuracy. The KGNet
source-code is available for further study
- Abstract(参考訳): 本稿では、GML対応SPARQLクエリをサポートするRDFエンジン上のサービスとして、オンデマンドグラフ機械学習(GML)であるKGNetを提案する。
KGNetはタスク固有のサブグラフを識別することで、KG上でGMLモデルのトレーニングを自動化する。
これにより、タスク非関連なKG構造とプロパティを削減し、スケーラビリティと精度を向上させることができる。
KGNetは、KG上でGMLモデルをトレーニングしながら、KGMetaと呼ばれるRDFグラフの形式でトレーニングされたモデルのメタデータを収集し、KGの関連するサブグラフとリンクする。
最後に、トレーニングされたモデルはすべて、SPARQLライクなクエリを通じてアクセス可能である。
私たちはこれをGML対応クエリと呼び、SPARQLMLと呼んでいます。
KGNetは既存のRDFエンジン上にSPARQLMLをサポートし、GMLモデルを使用してKG上でクエリと推論を行う。
KGNetの開発は、タスク固有のサブグラフを識別するためのメタサンプリング、制限時間やメモリ予算などの計算制約を伴うGMLパイプライン自動化、SPARQLMLクエリ最適化など、いくつかの分野で研究機会を提供する。
KGNetはノード分類、リンク予測、セマンティックエンティティマッチングなど、さまざまなGMLタスクをサポートしている。
我々は異なるアプリケーションドメインの2つの実KGを用いてKGNetを評価した。
KGNet全体のトレーニングと比較して、KGNetはトレーニング時間とメモリ使用量を著しく削減し、同等あるいは改善された精度を維持した。
KGNetのソースコードがさらなる研究のために利用可能に
関連論文リスト
- Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Distill-SynthKG: Distilling Knowledge Graph Synthesis Workflow for Improved Coverage and Efficiency [59.6772484292295]
大規模言語モデル(LLM)によって生成される知識グラフ(KG)は、検索・拡張生成(RAG)アプリケーションにとってますます価値が増している。
既存のKG抽出法は、大規模コーパスの処理に非効率なプロンプトベースのアプローチに依存している。
LLMに基づく多段階文書レベルのKGワークフローであるSynthKGを提案する。
我々はまた、RAGのための新しいグラフベースの検索フレームワークを設計する。
論文 参考訳(メタデータ) (2024-10-22T00:47:54Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Task-Oriented GNNs Training on Large Knowledge Graphs for Accurate and Efficient Modeling [5.460112864687281]
本稿では,大規模知識グラフ(KG)を用いたタスク指向HGNN学習におけるTOSG抽出の自動化手法であるKG-TOSAを提案する。
KG-TOSAは、最新のHGNN手法により、トレーニング時間とメモリ使用量を最大70%削減し、精度や推論時間などのモデル性能を向上させる。
論文 参考訳(メタデータ) (2024-03-09T01:17:26Z) - KG-Agent: An Efficient Autonomous Agent Framework for Complex Reasoning
over Knowledge Graph [134.8631016845467]
我々は、KG-Agentと呼ばれる自律LLMベースのエージェントフレームワークを提案する。
KG-Agentでは、LLM、多機能ツールボックス、KGベースのエグゼキュータ、知識メモリを統合する。
有効性を保証するため、プログラム言語を利用してKG上のマルチホップ推論プロセスを定式化する。
論文 参考訳(メタデータ) (2024-02-17T02:07:49Z) - KG-GPT: A General Framework for Reasoning on Knowledge Graphs Using
Large Language Models [18.20425100517317]
本稿では,知識グラフを用いたタスクに対して,大規模言語モデルを活用するフレームワークであるKG-GPTを提案する。
KG-GPTは文の分割、関連するグラフコンポーネントの検索、論理的結論の導出という3つのステップから構成される。
KGベースの事実検証とKGQAベンチマークを用いてKG-GPTを評価する。
論文 参考訳(メタデータ) (2023-10-17T12:51:35Z) - PyGraft: Configurable Generation of Synthetic Schemas and Knowledge
Graphs at Your Fingertips [3.5923669681271257]
PyGraftはPythonベースのツールで、カスタマイズされたドメインに依存しないスキーマとKGを生成する。
我々は,グラフベース機械学習(ML)などの領域において,新たなアプローチをベンチマークする上で,より多様なKGの生成を促進することを目的としている。
MLでは、モデルパフォーマンスと一般化能力のより包括的な評価が促進され、利用可能なベンチマークの限られたコレクションを超えることになる。
論文 参考訳(メタデータ) (2023-09-07T13:00:09Z) - A Universal Question-Answering Platform for Knowledge Graphs [7.2676028986202]
我々は,各ターゲットKGに合わせて調整する必要がない汎用QAシステムであるKGQAnを提案する。
KGQAnは、回答の質や処理時間の点で、最先端の大幅なマージンによって容易にデプロイされ、性能が向上する。
論文 参考訳(メタデータ) (2023-03-01T15:35:32Z) - Sequence-to-Sequence Knowledge Graph Completion and Question Answering [8.207403859762044]
既製のエンコーダ・デコーダ変換器モデルは,スケーラブルで汎用的なKGEモデルとして機能することを示す。
我々は,KGリンク予測をシーケンス・ツー・シーケンス・タスクとして用い,従来のKGE手法による3つのスコアリングアプローチを自己回帰復号化と交換することで,これを実現する。
論文 参考訳(メタデータ) (2022-03-19T13:01:49Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。