論文の概要: Graph Agent: Explicit Reasoning Agent for Graphs
- arxiv url: http://arxiv.org/abs/2310.16421v1
- Date: Wed, 25 Oct 2023 07:20:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 16:05:45.727395
- Title: Graph Agent: Explicit Reasoning Agent for Graphs
- Title(参考訳): Graph Agent: グラフの明示的推論エージェント
- Authors: Qinyong Wang, Zhenxiang Gao, Rong Xu
- Abstract要約: 本稿では,大規模言語モデル(LLM)を活用するインテリジェントエージェントであるグラフエージェント(GA),帰納的推論モジュール,グラフ推論タスクのための長期メモリを紹介する。
GAはシンボリック推論と既存のグラフ埋め込みの側面を統合し、複雑なグラフ推論タスクに革新的なアプローチを提供する。
その結果、GAは最先端のパフォーマンスに達し、精度は90.65%、95.48%、Cola、PubMed、PrimeKGの各データセットで89.32%であった。
- 参考スコア(独自算出の注目度): 3.422149942031643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph embedding methods such as Graph Neural Networks (GNNs) and Graph
Transformers have contributed to the development of graph reasoning algorithms
for various tasks on knowledge graphs. However, the lack of interpretability
and explainability of graph embedding methods has limited their applicability
in scenarios requiring explicit reasoning. In this paper, we introduce the
Graph Agent (GA), an intelligent agent methodology of leveraging large language
models (LLMs), inductive-deductive reasoning modules, and long-term memory for
knowledge graph reasoning tasks. GA integrates aspects of symbolic reasoning
and existing graph embedding methods to provide an innovative approach for
complex graph reasoning tasks. By converting graph structures into textual
data, GA enables LLMs to process, reason, and provide predictions alongside
human-interpretable explanations. The effectiveness of the GA was evaluated on
node classification and link prediction tasks. Results showed that GA reached
state-of-the-art performance, demonstrating accuracy of 90.65%, 95.48%, and
89.32% on Cora, PubMed, and PrimeKG datasets, respectively. Compared to
existing GNN and transformer models, GA offered advantages of explicit
reasoning ability, free-of-training, easy adaption to various graph reasoning
tasks
- Abstract(参考訳): グラフニューラルネットワーク(GNN)やグラフ変換器などのグラフ埋め込み手法は、知識グラフ上の様々なタスクに対するグラフ推論アルゴリズムの開発に寄与している。
しかしながら、グラフ埋め込みメソッドの解釈可能性と説明可能性の欠如は、明示的な推論を必要とするシナリオでの適用性を制限している。
本稿では,大規模言語モデル(llms)を活用したインテリジェントエージェント手法であるグラフエージェント(ga),帰納的推論モジュール,知識グラフ推論タスクのための長期記憶について紹介する。
GAはシンボリック推論と既存のグラフ埋め込みの側面を統合し、複雑なグラフ推論タスクに革新的なアプローチを提供する。
グラフ構造をテキストデータに変換することで、GAはLLMが人間の解釈可能な説明と共に処理、推論、予測を行うことを可能にする。
ノード分類とリンク予測タスクにおいてGAの有効性を評価した。
その結果、GAは最先端のパフォーマンスに達し、精度は90.65%、95.48%、Cola、PubMed、PrimeKGの各データセットで89.32%であった。
既存のGNNやトランスフォーマーモデルと比較して、GAは明示的な推論能力、学習自由度、様々なグラフ推論タスクへの適応の利点を提供した。
関連論文リスト
- Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - The GECo algorithm for Graph Neural Networks Explanation [0.0]
本稿では,グラフ分類問題の解釈可能性に対処するために,グラフコミュニティを包含する新たな方法論を提案する。
GECoと呼ばれる提案手法は、コミュニティがグラフノードの密結合部分集合であるなら、この性質はグラフ分類において役割を果たすべきであるという考えを生かしている。
得られた結果は、人工グラフデータセットおよびほとんどの実世界のデータセットの他の手法よりも優れている。
論文 参考訳(メタデータ) (2024-11-18T09:08:30Z) - GraphXAIN: Narratives to Explain Graph Neural Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの機械学習において強力な技術である。
既存のGNN説明法では、非データ科学者が理解し難い技術出力が得られる。
GNN予測を説明する自然言語の物語を生成するGraphXAINを提案する。
論文 参考訳(メタデータ) (2024-11-04T19:21:06Z) - Generating In-Distribution Proxy Graphs for Explaining Graph Neural Networks [17.71313964436965]
GNNの説明可能性のための一般的なパラダイムは、ラベルを元のグラフと比較することで説明可能な部分グラフを特定することである。
この課題は、トレーニングセットの元のグラフから説明可能なサブグラフのセットへの相当な分布シフトのため、難しい。
本稿では,学習データの分布を示す説明可能な部分グラフのプロキシグラフを生成する手法を提案する。
論文 参考訳(メタデータ) (2024-02-03T05:19:02Z) - Graph Domain Adaptation: Challenges, Progress and Prospects [61.9048172631524]
本稿では,グラフ間の効果的な知識伝達パラダイムとしてグラフ領域適応を提案する。
GDAは、ソースグラフとしてタスク関連のグラフを多数導入し、ソースグラフから学習した知識をターゲットグラフに適応させる。
研究状況と課題について概説し、分類学を提案し、代表作の詳細を紹介し、今後の展望について論じる。
論文 参考訳(メタデータ) (2024-02-01T02:44:32Z) - Interpretable Sparsification of Brain Graphs: Better Practices and
Effective Designs for Graph Neural Networks [15.101250958437038]
密度の高い脳グラフは、高い実行時間とメモリ使用量、限定的な解釈可能性を含む計算上の課題を生じさせる。
55.0%のエッジでグラフ分類性能を最大5.1%向上させる新しいモデルであるInterpretable Graph Sparsificationを提案する。
論文 参考訳(メタデータ) (2023-06-26T01:37:10Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。