論文の概要: Graph Agent: Explicit Reasoning Agent for Graphs
- arxiv url: http://arxiv.org/abs/2310.16421v1
- Date: Wed, 25 Oct 2023 07:20:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 16:05:45.727395
- Title: Graph Agent: Explicit Reasoning Agent for Graphs
- Title(参考訳): Graph Agent: グラフの明示的推論エージェント
- Authors: Qinyong Wang, Zhenxiang Gao, Rong Xu
- Abstract要約: 本稿では,大規模言語モデル(LLM)を活用するインテリジェントエージェントであるグラフエージェント(GA),帰納的推論モジュール,グラフ推論タスクのための長期メモリを紹介する。
GAはシンボリック推論と既存のグラフ埋め込みの側面を統合し、複雑なグラフ推論タスクに革新的なアプローチを提供する。
その結果、GAは最先端のパフォーマンスに達し、精度は90.65%、95.48%、Cola、PubMed、PrimeKGの各データセットで89.32%であった。
- 参考スコア(独自算出の注目度): 3.422149942031643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph embedding methods such as Graph Neural Networks (GNNs) and Graph
Transformers have contributed to the development of graph reasoning algorithms
for various tasks on knowledge graphs. However, the lack of interpretability
and explainability of graph embedding methods has limited their applicability
in scenarios requiring explicit reasoning. In this paper, we introduce the
Graph Agent (GA), an intelligent agent methodology of leveraging large language
models (LLMs), inductive-deductive reasoning modules, and long-term memory for
knowledge graph reasoning tasks. GA integrates aspects of symbolic reasoning
and existing graph embedding methods to provide an innovative approach for
complex graph reasoning tasks. By converting graph structures into textual
data, GA enables LLMs to process, reason, and provide predictions alongside
human-interpretable explanations. The effectiveness of the GA was evaluated on
node classification and link prediction tasks. Results showed that GA reached
state-of-the-art performance, demonstrating accuracy of 90.65%, 95.48%, and
89.32% on Cora, PubMed, and PrimeKG datasets, respectively. Compared to
existing GNN and transformer models, GA offered advantages of explicit
reasoning ability, free-of-training, easy adaption to various graph reasoning
tasks
- Abstract(参考訳): グラフニューラルネットワーク(GNN)やグラフ変換器などのグラフ埋め込み手法は、知識グラフ上の様々なタスクに対するグラフ推論アルゴリズムの開発に寄与している。
しかしながら、グラフ埋め込みメソッドの解釈可能性と説明可能性の欠如は、明示的な推論を必要とするシナリオでの適用性を制限している。
本稿では,大規模言語モデル(llms)を活用したインテリジェントエージェント手法であるグラフエージェント(ga),帰納的推論モジュール,知識グラフ推論タスクのための長期記憶について紹介する。
GAはシンボリック推論と既存のグラフ埋め込みの側面を統合し、複雑なグラフ推論タスクに革新的なアプローチを提供する。
グラフ構造をテキストデータに変換することで、GAはLLMが人間の解釈可能な説明と共に処理、推論、予測を行うことを可能にする。
ノード分類とリンク予測タスクにおいてGAの有効性を評価した。
その結果、GAは最先端のパフォーマンスに達し、精度は90.65%、95.48%、Cola、PubMed、PrimeKGの各データセットで89.32%であった。
既存のGNNやトランスフォーマーモデルと比較して、GAは明示的な推論能力、学習自由度、様々なグラフ推論タスクへの適応の利点を提供した。
関連論文リスト
- The GECo algorithm for Graph Neural Networks Explanation [0.0]
本稿では,グラフ分類問題の解釈可能性に対処するために,グラフコミュニティを包含する新たな方法論を提案する。
GECoと呼ばれる提案手法は、コミュニティがグラフノードの密結合部分集合であるなら、この性質はグラフ分類において役割を果たすべきであるという考えを生かしている。
得られた結果は、人工グラフデータセットおよびほとんどの実世界のデータセットの他の手法よりも優れている。
論文 参考訳(メタデータ) (2024-11-18T09:08:30Z) - Generating In-Distribution Proxy Graphs for Explaining Graph Neural Networks [17.71313964436965]
GNNの説明可能性のための一般的なパラダイムは、ラベルを元のグラフと比較することで説明可能な部分グラフを特定することである。
この課題は、トレーニングセットの元のグラフから説明可能なサブグラフのセットへの相当な分布シフトのため、難しい。
本稿では,学習データの分布を示す説明可能な部分グラフのプロキシグラフを生成する手法を提案する。
論文 参考訳(メタデータ) (2024-02-03T05:19:02Z) - Graph Domain Adaptation: Challenges, Progress and Prospects [61.9048172631524]
本稿では,グラフ間の効果的な知識伝達パラダイムとしてグラフ領域適応を提案する。
GDAは、ソースグラフとしてタスク関連のグラフを多数導入し、ソースグラフから学習した知識をターゲットグラフに適応させる。
研究状況と課題について概説し、分類学を提案し、代表作の詳細を紹介し、今後の展望について論じる。
論文 参考訳(メタデータ) (2024-02-01T02:44:32Z) - Interpretable Sparsification of Brain Graphs: Better Practices and
Effective Designs for Graph Neural Networks [15.101250958437038]
密度の高い脳グラフは、高い実行時間とメモリ使用量、限定的な解釈可能性を含む計算上の課題を生じさせる。
55.0%のエッジでグラフ分類性能を最大5.1%向上させる新しいモデルであるInterpretable Graph Sparsificationを提案する。
論文 参考訳(メタデータ) (2023-06-26T01:37:10Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Let Invariant Rationale Discovery Inspire Graph Contrastive Learning [98.10268114789775]
ハイパフォーマンスな拡張は、インスタンス識別に関するアンカーグラフの健全な意味を保存すべきである。
新たなフレームワーク Rationale-aware Graph Contrastive Learning (RGCL) を提案する。
RGCLは有理数生成器を使用して、グラフのインスタンス識別に関する健全な特徴を論理として明らかにし、対照的な学習のための有理数認識ビューを生成する。
論文 参考訳(メタデータ) (2022-06-16T01:28:40Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。