論文の概要: Global Human-guided Counterfactual Explanations for Molecular Properties via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2406.13869v1
- Date: Wed, 19 Jun 2024 22:16:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 18:06:06.784546
- Title: Global Human-guided Counterfactual Explanations for Molecular Properties via Reinforcement Learning
- Title(参考訳): 強化学習によるグローバルヒューマンガイドによる分子特性の非現実的説明
- Authors: Danqing Wang, Antonis Antoniades, Kha-Dinh Luong, Edwin Zhang, Mert Kosan, Jiachen Li, Ambuj Singh, William Yang Wang, Lei Li,
- Abstract要約: 我々は分子特性予測のための新しいグローバルな説明モデルRLHEXを開発した。
反事実的な説明と人間の定義した原則を一致させ、説明をより解釈しやすくし、専門家が容易に評価できるようにする。
RLHEXによるグローバルな説明は、より多くの4.12%の入力グラフをカバーし、3つの分子データセットの平均0.47%の反実的な説明セットと入力セットの間の距離を削減している。
- 参考スコア(独自算出の注目度): 49.095065258759895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations of Graph Neural Networks (GNNs) offer a powerful way to understand data that can naturally be represented by a graph structure. Furthermore, in many domains, it is highly desirable to derive data-driven global explanations or rules that can better explain the high-level properties of the models and data in question. However, evaluating global counterfactual explanations is hard in real-world datasets due to a lack of human-annotated ground truth, which limits their use in areas like molecular sciences. Additionally, the increasing scale of these datasets provides a challenge for random search-based methods. In this paper, we develop a novel global explanation model RLHEX for molecular property prediction. It aligns the counterfactual explanations with human-defined principles, making the explanations more interpretable and easy for experts to evaluate. RLHEX includes a VAE-based graph generator to generate global explanations and an adapter to adjust the latent representation space to human-defined principles. Optimized by Proximal Policy Optimization (PPO), the global explanations produced by RLHEX cover 4.12% more input graphs and reduce the distance between the counterfactual explanation set and the input set by 0.47% on average across three molecular datasets. RLHEX provides a flexible framework to incorporate different human-designed principles into the counterfactual explanation generation process, aligning these explanations with domain expertise. The code and data are released at https://github.com/dqwang122/RLHEX.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の非現実的な説明は、グラフ構造によって自然に表現できるデータを理解する強力な方法を提供する。
さらに、多くの領域において、問題となっているモデルやデータの高レベルな性質をよりよく説明できるデータ駆動のグローバルな説明やルールを導出することが望ましい。
しかし、現実世界のデータセットでは、人間に注釈を付けた真実が欠如しており、分子科学などの分野での使用が制限されているため、グローバルな反事実的説明を評価することは難しい。
さらに、これらのデータセットの規模が大きくなることで、ランダム検索手法の課題がもたらされる。
本稿では分子特性予測のための新しいグローバルな説明モデルRLHEXを開発する。
反事実的な説明と人間の定義した原則を一致させ、説明をより解釈しやすくし、専門家が容易に評価できるようにする。
RLHEXには、グローバルな説明を生成するVAEベースのグラフジェネレータと、人間の定義した原則に潜在表現空間を調整するアダプタが含まれている。
Proximal Policy Optimization (PPO)によって最適化され、RLHEXが作成したグローバルな説明は、より多くの4.12%の入力グラフをカバーし、3つの分子データセットの平均0.47%の反実的説明セットと入力セットの間の距離を削減した。
RLHEXは、異なる人間設計の原則を対実的説明生成プロセスに組み込むフレキシブルなフレームワークを提供し、これらの説明をドメインの専門知識と整合させる。
コードとデータはhttps://github.com/dqwang122/RLHEXで公開されている。
関連論文リスト
- Global Concept Explanations for Graphs by Contrastive Learning [0.6906005491572401]
本稿では,グラフニューラルネットワークの予測からグローバルな概念記述を抽出する手法を提案する。
合成および実世界のグラフ特性予測タスクに関する計算実験を行う。
論文 参考訳(メタデータ) (2024-04-25T11:43:46Z) - XInsight: Revealing Model Insights for GNNs with Flow-based Explanations [0.0]
薬物発見のような多くの高度な応用は、モデルから人間には理解できない説明を必要とする。
我々は,GFlowNetsを用いてモデル説明の分布を生成する,XInsightと呼ばれるGNNのための説明可能性アルゴリズムを提案する。
QSAR モデルを用いて生成した化合物を解析し,XInsight の説明の有用性を示す。
論文 参考訳(メタデータ) (2023-06-07T21:25:32Z) - Robust Ante-hoc Graph Explainer using Bilevel Optimization [0.7999703756441758]
グラフニューラルネットワークのための新鮮でフレキシブルなアンテホック説明器 RAGE を提案する。
RAGEは、予測に必要な完全な情報を含む分子サブ構造を効果的に識別することができる。
種々の分子分類タスクに関する実験により、RAGEの説明は既存のポストホック法やアンテホック法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T05:50:38Z) - Evaluating Explainability for Graph Neural Networks [21.339111121529815]
本稿では,様々なベンチマークデータセットを生成することができる合成グラフデータ生成器ShapeGGenを紹介する。
ShapeGGenといくつかの実世界のグラフデータセットを、オープンソースのグラフ説明可能性ライブラリであるGraphXAIに含めています。
論文 参考訳(メタデータ) (2022-08-19T13:43:52Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - GCExplainer: Human-in-the-Loop Concept-based Explanations for Graph
Neural Networks [0.3441021278275805]
GCExplainerは、グラフニューラルネットワーク(GNN)のためのグローバルな概念に基づく説明のポストホック発見と抽出のための教師なしのアプローチである。
提案手法は5つのノード分類データセットと2つのグラフ分類データセット上で成功し,人間をループに配置することで高品質な概念表現を発見し,抽出できることを実証した。
論文 参考訳(メタデータ) (2021-07-25T20:52:48Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。