論文の概要: B-XAIC Dataset: Benchmarking Explainable AI for Graph Neural Networks Using Chemical Data
- arxiv url: http://arxiv.org/abs/2505.22252v1
- Date: Wed, 28 May 2025 11:40:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.575487
- Title: B-XAIC Dataset: Benchmarking Explainable AI for Graph Neural Networks Using Chemical Data
- Title(参考訳): B-XAICデータセット:化学データを用いたグラフニューラルネットワークのための説明可能なAIのベンチマーク
- Authors: Magdalena Proszewska, Tomasz Danel, Dawid Rymarczyk,
- Abstract要約: B-XAICは、実世界の分子データと様々なタスクから構築された新しいベンチマークである。
このベンチマークは、XAIの忠実さに関する深い洞察を得るための貴重なリソースを提供し、より信頼性が高く解釈可能なモデルの開発を促進する。
- 参考スコア(独自算出の注目度): 4.945980414437814
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Understanding the reasoning behind deep learning model predictions is crucial in cheminformatics and drug discovery, where molecular design determines their properties. However, current evaluation frameworks for Explainable AI (XAI) in this domain often rely on artificial datasets or simplified tasks, employing data-derived metrics that fail to capture the complexity of real-world scenarios and lack a direct link to explanation faithfulness. To address this, we introduce B-XAIC, a novel benchmark constructed from real-world molecular data and diverse tasks with known ground-truth rationales for assigned labels. Through a comprehensive evaluation using B-XAIC, we reveal limitations of existing XAI methods for Graph Neural Networks (GNNs) in the molecular domain. This benchmark provides a valuable resource for gaining deeper insights into the faithfulness of XAI, facilitating the development of more reliable and interpretable models.
- Abstract(参考訳): 深層学習モデル予測の背景にある推論を理解することは、分子設計がそれらの性質を決定する化学情報学や薬物発見において重要である。
しかしながら、この領域における現在の評価フレームワークは、しばしば人工データセットや単純化されたタスクに依存しており、実世界のシナリオの複雑さを捉えるのに失敗し、説明の忠実さに直接リンクしないデータ由来のメトリクスを使用している。
そこで本研究では,B-XAICを提案する。B-XAICは,実世界の分子データから構築された新しいベンチマークであり,アサインされたラベルに対して,既知の基底構造理性を持つ多種多様なタスクである。
B-XAICを用いた包括的評価により,分子領域におけるグラフニューラルネットワーク(GNN)の既存のXAI手法の限界を明らかにする。
このベンチマークは、XAIの忠実さに関する深い洞察を得るための貴重なリソースを提供し、より信頼性が高く解釈可能なモデルの開発を促進する。
関連論文リスト
- Addressing the Scarcity of Benchmarks for Graph XAI [6.387263468033964]
実世界のデータセットからグラフ分類を行うためのXAIベンチマークの構築を自動化するための一般的な手法を提案する。
我々は15のプリメードベンチマークと2000以上のXAIベンチマークを生成するコードを提供しています。
論文 参考訳(メタデータ) (2025-05-18T14:19:52Z) - VirtualXAI: A User-Centric Framework for Explainability Assessment Leveraging GPT-Generated Personas [0.07499722271664146]
eXplainable AI(XAI)の需要が増加し、AIモデルの解釈可能性、透明性、信頼性が向上した。
仮想ペルソナによる定量的ベンチマークと質的ユーザアセスメントを統合したフレームワークを提案する。
これにより、推定されたXAIスコアが得られ、与えられたシナリオに対して最適なAIモデルとXAIメソッドの両方にカスタマイズされたレコメンデーションが提供される。
論文 参考訳(メタデータ) (2025-03-06T09:44:18Z) - Extracting human interpretable structure-property relationships in
chemistry using XAI and large language models [0.4769602527256662]
本稿では,XAI手法と大規模言語モデル(LLM)を統合したXpertAIフレームワークを提案する。
以上の結果から,XpertAI は LLM と XAI ツールの強みを組み合わせ,具体的な,科学的,解釈可能な説明を生成することが示唆された。
論文 参考訳(メタデータ) (2023-11-07T15:02:32Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Quantitative Evaluation of Explainable Graph Neural Networks for
Molecular Property Prediction [2.8544822698499255]
グラフニューラルネットワーク(GNN)は、解釈可能性の欠如により、薬物発見において限定的に受け入れられている。
本研究では,最新のGNNモデルの解釈可能性を定量的に評価するために,3段階のベンチマークデータセットを構築した。
我々は,最近のXAI手法と異なるGNNアルゴリズムを組み合わせることで,薬物発見のメリット,限界,今後の可能性を明らかにする。
論文 参考訳(メタデータ) (2021-07-01T04:49:29Z) - Neural Network Attribution Methods for Problems in Geoscience: A Novel
Synthetic Benchmark Dataset [0.05156484100374058]
我々は、地質科学における回帰問題に対するアトリビューションベンチマークデータセットを生成するフレームワークを提供する。
シミュレーションの基盤となる機能を学ぶために、完全に接続されたネットワークを訓練する。
異なるXAI手法から得られた推定帰属ヒートマップと基底真理を比較して,特定のXAI手法が良好に機能する事例を同定する。
論文 参考訳(メタデータ) (2021-03-18T03:39:17Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。