論文の概要: xAI-Drop: Don't Use What You Cannot Explain
- arxiv url: http://arxiv.org/abs/2407.20067v1
- Date: Mon, 29 Jul 2024 14:53:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 13:24:58.401071
- Title: xAI-Drop: Don't Use What You Cannot Explain
- Title(参考訳): xAI-Drop: 説明できないものを使わない
- Authors: Vincenzo Marco De Luca, Antonio Longa, Andrea Passerini, Pietro Liò,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための主要なパラダイムとして登場した。
GNNは過密化、一般化の欠如、解釈可能性の低下といった課題に直面している。
我々は、雑音の多いネットワーク要素をピンポイントする説明可能性を活用する新しいトポロジカルレベル降下正規化器であるxAI-Dropを紹介する。
- 参考スコア(独自算出の注目度): 23.33477769275026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as the predominant paradigm for learning from graph-structured data, offering a wide range of applications from social network analysis to bioinformatics. Despite their versatility, GNNs face challenges such as oversmoothing, lack of generalization and poor interpretability, which hinder their wider adoption and reliability in critical applications. Dropping has emerged as an effective paradigm for reducing noise during training and improving robustness of GNNs. However, existing approaches often rely on random or heuristic-based selection criteria, lacking a principled method to identify and exclude nodes that contribute to noise and over-complexity in the model. In this work, we argue that explainability should be a key indicator of a model's robustness throughout its training phase. To this end, we introduce xAI-Drop, a novel topological-level dropping regularizer that leverages explainability to pinpoint noisy network elements to be excluded from the GNN propagation mechanism. An empirical evaluation on diverse real-world datasets demonstrates that our method outperforms current state-of-the-art dropping approaches in accuracy, effectively reduces over-smoothing, and improves explanation quality.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための主要なパラダイムとして登場し、ソーシャルネットワーク分析からバイオインフォマティクスまで幅広い応用を提供している。
汎用性にもかかわらず、GNNは過密化、一般化の欠如、解釈可能性の低下といった課題に直面しており、重要なアプリケーションにおいて広く採用され、信頼性が損なわれている。
ドロップは、トレーニング中のノイズを低減し、GNNの堅牢性を改善するための効果的なパラダイムとして登場した。
しかし、既存のアプローチは、しばしばランダムまたはヒューリスティックな選択基準に依存しており、モデルにおけるノイズや過剰な複雑さに寄与するノードを識別し排除する原則的な方法が欠如している。
本研究では,学習段階を通じてモデルの堅牢性を示す重要な指標として,説明可能性について論じる。
この目的のために、GNN伝搬機構から除外されるノイズの多いネットワーク要素をピンポイントする説明可能性を活用する新しいトポロジカルレベル降下正規化器であるxAI-Dropを導入する。
実世界の多様なデータセットに対する実証的な評価は、我々の手法が現在の最先端のドロップアプローチを精度良く上回り、過度なスムーシングを効果的に減らし、説明品質を向上させることを実証している。
関連論文リスト
- DeCaf: A Causal Decoupling Framework for OOD Generalization on Node Classification [14.96980804513399]
グラフニューラルネットワーク(GNN)は、分散シフトの影響を受けやすいため、クリティカルドメインの脆弱性やセキュリティ上の問題が発生する。
不変(機能、構造)-ラベルマッピングの学習を目標とする既存の方法は、データ生成プロセスに関する過度に単純化された仮定に依存することが多い。
構造因果モデル(SCM)を用いたより現実的なグラフデータ生成モデルを提案する。
本稿では,非バイアスな特徴ラベルと構造ラベルのマッピングを独立に学習する,カジュアルなデカップリングフレームワークDeCafを提案する。
論文 参考訳(メタデータ) (2024-10-27T00:22:18Z) - Kolmogorov-Arnold Graph Neural Networks [2.4005219869876453]
グラフニューラルネットワーク(GNN)は、ネットワークのようなデータから学習する上で優れるが、解釈性に欠けることが多い。
本稿では,GKAN(Graph Kolmogorov-Arnold Network)を提案する。
論文 参考訳(メタデータ) (2024-06-26T13:54:59Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - On the Topology Awareness and Generalization Performance of Graph Neural Networks [6.598758004828656]
我々は,GNNのトポロジ的認識をいかなるトポロジ的特徴においても特徴付けるための包括的枠組みを導入する。
本研究は,各ベンチマークデータセットの経路距離を最短とする内在グラフを用いたケーススタディである。
論文 参考訳(メタデータ) (2024-03-07T13:33:30Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Probabilistically Rewired Message-Passing Neural Networks [41.554499944141654]
メッセージパッシンググラフニューラルネットワーク(MPNN)は、グラフ構造化入力を処理する強力なツールとして登場した。
MPNNは、潜在的なノイズや欠落した情報を無視して、固定された入力グラフ構造で動作する。
確率的に再構成されたMPNN(PR-MPNN)を考案し、より有益なものを省略しながら、関連するエッジを追加することを学習する。
論文 参考訳(メタデータ) (2023-10-03T15:43:59Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Discriminability of Single-Layer Graph Neural Networks [172.5042368548269]
グラフニューラルネットワーク(GNN)は、幅広い問題について有望な性能を示した。
本稿では, 識別可能性の特性に着目し, 安定グラフフィルタバンクへのポイントワイド非線形性の適用により, 高固有値コンテンツに対する識別能力が向上する条件を確立する。
論文 参考訳(メタデータ) (2020-10-17T18:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。