論文の概要: Global Concept Explanations for Graphs by Contrastive Learning
- arxiv url: http://arxiv.org/abs/2404.16532v1
- Date: Thu, 25 Apr 2024 11:43:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 13:59:41.134472
- Title: Global Concept Explanations for Graphs by Contrastive Learning
- Title(参考訳): コントラスト学習によるグラフのグローバルな概念記述
- Authors: Jonas Teufel, Pascal Friederich,
- Abstract要約: 本稿では,グラフニューラルネットワークの予測からグローバルな概念記述を抽出する手法を提案する。
合成および実世界のグラフ特性予測タスクに関する計算実験を行う。
- 参考スコア(独自算出の注目度): 0.6906005491572401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Beyond improving trust and validating model fairness, xAI practices also have the potential to recover valuable scientific insights in application domains where little to no prior human intuition exists. To that end, we propose a method to extract global concept explanations from the predictions of graph neural networks to develop a deeper understanding of the tasks underlying structure-property relationships. We identify concept explanations as dense clusters in the self-explaining Megan models subgraph latent space. For each concept, we optimize a representative prototype graph and optionally use GPT-4 to provide hypotheses about why each structure has a certain effect on the prediction. We conduct computational experiments on synthetic and real-world graph property prediction tasks. For the synthetic tasks we find that our method correctly reproduces the structural rules by which they were created. For real-world molecular property regression and classification tasks, we find that our method rediscovers established rules of thumb. More specifically, our results for molecular mutagenicity prediction indicate more fine-grained resolution of structural details than existing explainability methods, consistent with previous results from chemistry literature. Overall, our results show promising capability to extract the underlying structure-property relationships for complex graph property prediction tasks.
- Abstract(参考訳): 信頼の向上とモデルフェアネスの検証に加えて、xAIプラクティスは、事前の人間の直観がほとんど、あるいは全く存在しないアプリケーションドメインにおける貴重な科学的洞察を回復する可能性がある。
そこで本稿では,グラフニューラルネットワークの予測からグローバルな概念記述を抽出し,構造-プロパティ関係に基づくタスクの理解を深める手法を提案する。
自己説明的ミーガンモデルにおける概念的説明は、潜在空間をサブグラフ化したものである。
それぞれの概念に対して、代表となるプロトタイプグラフを最適化し、オプションでGPT-4を使用して、各構造が予測に一定の影響を及ぼす理由の仮説を提供する。
合成および実世界のグラフ特性予測タスクに関する計算実験を行う。
合成タスクに対して,本手法は生成した構造規則を正しく再現する。
実世界の分子特性の回帰と分類タスクでは,本手法が親指の規則を確立した。
より具体的には,分子変異原性予測の結果から,既存の説明可能性法よりも微細な構造詳細分解能が示唆された。
以上の結果から,複雑なグラフ特性予測タスクの基盤となる構造-プロパティ関係を抽出できることが示唆された。
関連論文リスト
- Graph Stochastic Neural Process for Inductive Few-shot Knowledge Graph Completion [63.68647582680998]
I-FKGC(inductive few-shot knowledge graph completion)と呼ばれる課題に焦点をあてる。
帰納的推論(inductive reasoning)の概念に着想を得て,I-FKGCを帰納的推論問題とした。
本稿では,仮説の連成分布をモデル化したニューラルプロセスに基づく仮説抽出器を提案する。
第2のモジュールでは、この仮説に基づいて、クエリセットのトリプルが抽出された仮説と一致するかどうかをテストするグラフアテンションベースの予測器を提案する。
論文 参考訳(メタデータ) (2024-08-03T13:37:40Z) - Global Human-guided Counterfactual Explanations for Molecular Properties via Reinforcement Learning [49.095065258759895]
我々は分子特性予測のための新しいグローバルな説明モデルRLHEXを開発した。
反事実的な説明と人間の定義した原則を一致させ、説明をより解釈しやすくし、専門家が容易に評価できるようにする。
RLHEXによるグローバルな説明は、より多くの4.12%の入力グラフをカバーし、3つの分子データセットの平均0.47%の反実的な説明セットと入力セットの間の距離を削減している。
論文 参考訳(メタデータ) (2024-06-19T22:16:40Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - Explainable Representations for Relation Prediction in Knowledge Graphs [0.0]
本稿では、知識グラフにおける関係予測を支援するための説明可能な表現のための新しいアプローチであるSEEKを提案する。
それは、エンティティと各サブグラフの学習表現の間の関連する共有意味的側面を識別することに基づいている。
本研究では,タンパク質間相互作用予測と遺伝子発現関連予測の2つの実世界の関係予測タスクについてSEEKを評価した。
論文 参考訳(メタデータ) (2023-06-22T06:18:40Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - ProGReST: Prototypical Graph Regression Soft Trees for Molecular
Property Prediction [1.6114012813668934]
ProGreST(Prototypeal Graph Regression Self-Explainable Trees)モデルは、プロトタイプ学習、ソフト決定木、グラフニューラルネットワークを組み合わせたモデルである。
ProGReSTでは、モデルに組み込まれた解釈可能性による予測とともに、理論的に得られる。
論文 参考訳(メタデータ) (2022-10-07T10:21:24Z) - Graph neural networks for the prediction of molecular structure-property
relationships [59.11160990637615]
グラフニューラルネットワーク(GNN)は、分子グラフ上で直接動作する新しい機械学習手法である。
GNNは、エンドツーエンドでプロパティを学習できるため、情報記述子の必要性を回避することができる。
本稿では、分子特性予測のための2つの例を通して、GNNの基礎を説明し、GNNの応用を実証する。
論文 参考訳(メタデータ) (2022-07-25T11:30:44Z) - Graph Rationalization with Environment-based Augmentations [17.733488328772943]
Rationaleの識別により、視覚と言語データに対するニューラルネットワークの一般化性と解釈性が向上した。
既存のグラフプーリングおよび/または分配介入手法は、最適なグラフ論理を識別するサンプルの不足に悩まされる。
本稿では,仮想データの自動生成による有理性識別の改善を目的とした,環境代替と呼ばれる新たな拡張操作を提案する。
論文 参考訳(メタデータ) (2022-06-06T20:23:30Z) - Convolutional Motif Kernel Networks [1.104960878651584]
我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
論文 参考訳(メタデータ) (2021-11-03T15:06:09Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。