論文の概要: Global Concept Explanations for Graphs by Contrastive Learning
- arxiv url: http://arxiv.org/abs/2404.16532v1
- Date: Thu, 25 Apr 2024 11:43:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 13:59:41.134472
- Title: Global Concept Explanations for Graphs by Contrastive Learning
- Title(参考訳): コントラスト学習によるグラフのグローバルな概念記述
- Authors: Jonas Teufel, Pascal Friederich,
- Abstract要約: 本稿では,グラフニューラルネットワークの予測からグローバルな概念記述を抽出する手法を提案する。
合成および実世界のグラフ特性予測タスクに関する計算実験を行う。
- 参考スコア(独自算出の注目度): 0.6906005491572401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Beyond improving trust and validating model fairness, xAI practices also have the potential to recover valuable scientific insights in application domains where little to no prior human intuition exists. To that end, we propose a method to extract global concept explanations from the predictions of graph neural networks to develop a deeper understanding of the tasks underlying structure-property relationships. We identify concept explanations as dense clusters in the self-explaining Megan models subgraph latent space. For each concept, we optimize a representative prototype graph and optionally use GPT-4 to provide hypotheses about why each structure has a certain effect on the prediction. We conduct computational experiments on synthetic and real-world graph property prediction tasks. For the synthetic tasks we find that our method correctly reproduces the structural rules by which they were created. For real-world molecular property regression and classification tasks, we find that our method rediscovers established rules of thumb. More specifically, our results for molecular mutagenicity prediction indicate more fine-grained resolution of structural details than existing explainability methods, consistent with previous results from chemistry literature. Overall, our results show promising capability to extract the underlying structure-property relationships for complex graph property prediction tasks.
- Abstract(参考訳): 信頼の向上とモデルフェアネスの検証に加えて、xAIプラクティスは、事前の人間の直観がほとんど、あるいは全く存在しないアプリケーションドメインにおける貴重な科学的洞察を回復する可能性がある。
そこで本稿では,グラフニューラルネットワークの予測からグローバルな概念記述を抽出し,構造-プロパティ関係に基づくタスクの理解を深める手法を提案する。
自己説明的ミーガンモデルにおける概念的説明は、潜在空間をサブグラフ化したものである。
それぞれの概念に対して、代表となるプロトタイプグラフを最適化し、オプションでGPT-4を使用して、各構造が予測に一定の影響を及ぼす理由の仮説を提供する。
合成および実世界のグラフ特性予測タスクに関する計算実験を行う。
合成タスクに対して,本手法は生成した構造規則を正しく再現する。
実世界の分子特性の回帰と分類タスクでは,本手法が親指の規則を確立した。
より具体的には,分子変異原性予測の結果から,既存の説明可能性法よりも微細な構造詳細分解能が示唆された。
以上の結果から,複雑なグラフ特性予測タスクの基盤となる構造-プロパティ関係を抽出できることが示唆された。
関連論文リスト
- Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - Explainable Representations for Relation Prediction in Knowledge Graphs [0.0]
本稿では、知識グラフにおける関係予測を支援するための説明可能な表現のための新しいアプローチであるSEEKを提案する。
それは、エンティティと各サブグラフの学習表現の間の関連する共有意味的側面を識別することに基づいている。
本研究では,タンパク質間相互作用予測と遺伝子発現関連予測の2つの実世界の関係予測タスクについてSEEKを評価した。
論文 参考訳(メタデータ) (2023-06-22T06:18:40Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - ProGReST: Prototypical Graph Regression Soft Trees for Molecular
Property Prediction [1.6114012813668934]
ProGreST(Prototypeal Graph Regression Self-Explainable Trees)モデルは、プロトタイプ学習、ソフト決定木、グラフニューラルネットワークを組み合わせたモデルである。
ProGReSTでは、モデルに組み込まれた解釈可能性による予測とともに、理論的に得られる。
論文 参考訳(メタデータ) (2022-10-07T10:21:24Z) - Graph neural networks for the prediction of molecular structure-property
relationships [59.11160990637615]
グラフニューラルネットワーク(GNN)は、分子グラフ上で直接動作する新しい機械学習手法である。
GNNは、エンドツーエンドでプロパティを学習できるため、情報記述子の必要性を回避することができる。
本稿では、分子特性予測のための2つの例を通して、GNNの基礎を説明し、GNNの応用を実証する。
論文 参考訳(メタデータ) (2022-07-25T11:30:44Z) - Graph Rationalization with Environment-based Augmentations [17.733488328772943]
Rationaleの識別により、視覚と言語データに対するニューラルネットワークの一般化性と解釈性が向上した。
既存のグラフプーリングおよび/または分配介入手法は、最適なグラフ論理を識別するサンプルの不足に悩まされる。
本稿では,仮想データの自動生成による有理性識別の改善を目的とした,環境代替と呼ばれる新たな拡張操作を提案する。
論文 参考訳(メタデータ) (2022-06-06T20:23:30Z) - Convolutional Motif Kernel Networks [1.104960878651584]
我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
論文 参考訳(メタデータ) (2021-11-03T15:06:09Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - GraphOpt: Learning Optimization Models of Graph Formation [72.75384705298303]
本稿では,グラフ構造形成の暗黙的モデルを学ぶエンドツーエンドフレームワークを提案し,その基盤となる最適化機構を明らかにする。
学習した目的は、観測されたグラフプロパティの説明として機能し、ドメイン内の異なるグラフを渡すために自分自身を貸すことができる。
GraphOptは、グラフ内のリンク生成をシーケンシャルな意思決定プロセスとして、最大エントロピー逆強化学習アルゴリズムを用いて解決する。
論文 参考訳(メタデータ) (2020-07-07T16:51:39Z) - Causal Discovery in Physical Systems from Videos [123.79211190669821]
因果発見は人間の認知の中心にある。
本研究では,ビデオの因果発見の課題を,地層構造を監督せずにエンドツーエンドで検討する。
論文 参考訳(メタデータ) (2020-07-01T17:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。