論文の概要: MetaGMT: Improving Actionable Interpretability of Graph Multilinear Networks via Meta-Learning Filtration
- arxiv url: http://arxiv.org/abs/2505.19445v1
- Date: Mon, 26 May 2025 03:07:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.132135
- Title: MetaGMT: Improving Actionable Interpretability of Graph Multilinear Networks via Meta-Learning Filtration
- Title(参考訳): MetaGMT:メタラーニングフィルタによるグラフマルチリニアネットワークの動作可能な解釈性の向上
- Authors: Rishabh Bhattacharya, Hari Shankar, Vaishnavi Shivkumar, Ponnurangam Kumaraguru,
- Abstract要約: 本稿ではメタGMTというメタラーニングフレームワークを提案する。
その結果,MetaGMTは説明品質(AUC-ROC,Precision@K)とスプリアスパターンに対するロバスト性の両方を著しく改善することがわかった。
我々の研究は、現実世界のアプリケーションのためのより信頼性が高く実用的なGNNシステムの構築に寄与します。
- 参考スコア(独自算出の注目度): 6.102559098873098
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The growing adoption of Graph Neural Networks (GNNs) in high-stakes domains like healthcare and finance demands reliable explanations of their decision-making processes. While inherently interpretable GNN architectures like Graph Multi-linear Networks (GMT) have emerged, they remain vulnerable to generating explanations based on spurious correlations, potentially undermining trust in critical applications. We present MetaGMT, a meta-learning framework that enhances explanation fidelity through a novel bi-level optimization approach. We demonstrate that MetaGMT significantly improves both explanation quality (AUC-ROC, Precision@K) and robustness to spurious patterns, across BA-2Motifs, MUTAG, and SP-Motif benchmarks. Our approach maintains competitive classification accuracy while producing more faithful explanations (with an increase up to 8% of Explanation ROC on SP-Motif 0.5) compared to baseline methods. These advancements in interpretability could enable safer deployment of GNNs in sensitive domains by (1) facilitating model debugging through more reliable explanations, (2) supporting targeted retraining when biases are identified, and (3) enabling meaningful human oversight. By addressing the critical challenge of explanation reliability, our work contributes to building more trustworthy and actionable GNN systems for real-world applications.
- Abstract(参考訳): 医療や金融といった高度な分野におけるグラフニューラルネットワーク(GNN)の採用の増加は、意思決定プロセスの信頼性を要求している。
Graph Multi-linear Networks (GMT)のような本質的に解釈可能なGNNアーキテクチャが登場したが、素早い相関に基づく説明の生成には脆弱であり、クリティカルなアプリケーションに対する信頼を損なう可能性がある。
本稿ではメタGMTというメタラーニングフレームワークを提案する。
BA-2Motifs, MUTAG, SP-Motifベンチマークにおいて,MetaGMTは説明品質(AUC-ROC, Precision@K)とロバスト性の両方を著しく改善することを示した。
提案手法は,SP-Motif 0.5 における説明ROC の 8% 増加とともに,より忠実な説明を導出しながら,競争的分類精度を維持している。
これらの解釈可能性の向上は,(1)より信頼性の高い説明によるモデルデバッグを容易にすること,(2)バイアスが特定された場合のターゲット再トレーニングを支援すること,(3)有意義な人間の監視を可能にすること,などによって,機密ドメインへのGNNの安全な展開を可能にする。
信頼性の説明という重要な課題に対処することによって,我々の研究は,より信頼性が高く,実用的なGNNシステムの構築に寄与する。
関連論文リスト
- How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - xAI-Drop: Don't Use What You Cannot Explain [23.33477769275026]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための主要なパラダイムとして登場した。
GNNは、一般化の欠如や解釈可能性の低下といった課題に直面している。
トポロジカルレベル降下正則化器であるxAI-Dropを導入する。
論文 参考訳(メタデータ) (2024-07-29T14:53:45Z) - Kolmogorov-Arnold Graph Neural Networks [2.4005219869876453]
グラフニューラルネットワーク(GNN)は、ネットワークのようなデータから学習する上で優れるが、解釈性に欠けることが多い。
本稿では,GKAN(Graph Kolmogorov-Arnold Network)を提案する。
論文 参考訳(メタデータ) (2024-06-26T13:54:59Z) - Uncertainty in Graph Neural Networks: A Survey [47.785948021510535]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - GNNavi: Navigating the Information Flow in Large Language Models by Graph Neural Network [49.91919718254597]
大規模な言語モデル(LLM)は、デモによるプロンプトを使用すると、強いコンテキスト学習能力を示す。
プロンプトベースの微調整は、低データシナリオにおいて効果的な微調整法であることが証明されているが、計算資源に対する高い要求は、その実用性を制限する。
GNNaviはグラフニューラルネットワークレイヤを使用して、プロンプト処理中に情報フローの集約と分布を正確にガイドする。
論文 参考訳(メタデータ) (2024-02-18T21:13:05Z) - Interpreting GNN-based IDS Detections Using Provenance Graph Structural Features [15.256262257064982]
ProVEXPLAINERは,解釈可能なサロゲートモデルを用いて,インスタンスレベルのセキュリティ対応の説明を提供するフレームワークである。
マルウェアとAPTデータセットでは、PROVEXPLAINERは29%/27%/25%高いフィディリティ+、精度とリコール、それぞれ12%低いフィディリティを達成している。
論文 参考訳(メタデータ) (2023-06-01T17:36:24Z) - Task-Agnostic Graph Neural Network Evaluation via Adversarial
Collaboration [11.709808788756966]
GraphACは、分子表現学習のためのグラフニューラルネットワーク(GNN)の研究を評価するための、原則付き、タスクに依存し、安定したフレームワークである。
2つのGNNが互いに直接競合することから、共同で自分自身を更新できる、競争力のあるバーロウツインズ(Competitive Barlow Twins)という新しい客観的機能を導入します。
論文 参考訳(メタデータ) (2023-01-27T03:33:11Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。