論文の概要: On the Robustness of Post-hoc GNN Explainers to Label Noise
- arxiv url: http://arxiv.org/abs/2309.01706v1
- Date: Mon, 4 Sep 2023 16:35:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 17:53:03.654943
- Title: On the Robustness of Post-hoc GNN Explainers to Label Noise
- Title(参考訳): ポストホックGNNのラベルノイズに対するロバスト性について
- Authors: Zhiqiang Zhong and Yangqianzi Jiang and Davide Mottin
- Abstract要約: グラフニューラルネットワーク(GNN)の固有のブラックボックス制限に対する解決策として、ポストホックGNN説明器が提案されている。
ラベルノイズの度合いの異なる多種多様なポストホックGNN説明器の有効性を評価するために,系統的な実験的検討を行った。
実験結果から,まず,ポストホックなGNN説明器がラベルの摂動に影響を受けやすいこと,また,低レベルなラベルノイズであっても,GNNの性能に悪影響を及ぼすこと,生成した説明の質を著しく損なうこと,など,いくつかの重要な知見が得られた。
- 参考スコア(独自算出の注目度): 7.067145619709089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Proposed as a solution to the inherent black-box limitations of graph neural
networks (GNNs), post-hoc GNN explainers aim to provide precise and insightful
explanations of the behaviours exhibited by trained GNNs. Despite their recent
notable advancements in academic and industrial contexts, the robustness of
post-hoc GNN explainers remains unexplored when confronted with label noise. To
bridge this gap, we conduct a systematic empirical investigation to evaluate
the efficacy of diverse post-hoc GNN explainers under varying degrees of label
noise. Our results reveal several key insights: Firstly, post-hoc GNN
explainers are susceptible to label perturbations. Secondly, even minor levels
of label noise, inconsequential to GNN performance, harm the quality of
generated explanations substantially. Lastly, we engage in a discourse
regarding the progressive recovery of explanation effectiveness with escalating
noise levels.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の固有のブラックボックス制限に対する解決策として提案されている、ポストホックなGNN説明器は、トレーニングされたGNNが示す行動の正確で洞察力豊かな説明を提供することを目的としている。
学術的・産業的な文脈における最近の顕著な進歩にもかかわらず、ポストホックなgnn解説者の頑健さはラベルノイズと向き合うと未調査のままである。
このギャップを埋めるために,ラベルノイズの度合いの異なる多種多様なGNN説明器の有効性を評価するために,系統的な実験を行った。
まず、ポストホックGNNの説明者はラベルの摂動に影響を受けやすい。
第二に、GNNの性能に反する低レベルのラベルノイズでさえ、生成された説明の質を著しく損なう。
最後に,騒音レベルを増大させることによる説明効果の漸進的回復に関する談話を行う。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Graph Neural Network Explanations are Fragile [39.9987140075811]
我々は、敵の攻撃下でGNNの説明者を研究するための第一歩を踏み出した。
逆の摂動グラフ構造は、GNNモデルが正しい予測を行うのを確実にするが、GNN説明器は摂動グラフに大きく異なる説明を与える。
論文 参考訳(メタデータ) (2024-06-05T12:23:02Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - ACGAN-GNNExplainer: Auxiliary Conditional Generative Explainer for Graph
Neural Networks [7.077341403454516]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで有効であることが証明されているが、その基盤となるメカニズムは謎のままである。
この課題に対処し、信頼性の高い意思決定を可能にするため、近年多くのGNN説明者が提案されている。
本稿では、GNN説明分野にAuxiliary Generative Adrative Network (ACGAN)を導入し、emphACGANGNNExplainerと呼ばれる新しいGNN説明器を提案する。
論文 参考訳(メタデータ) (2023-09-29T01:20:28Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - Feature Noise Boosts DNN Generalization under Label Noise [65.36889005555669]
トレーニングデータにおけるラベルノイズの存在は、ディープニューラルネットワーク(DNN)の一般化に大きな影響を与える
本研究では,学習データの特徴に直接ノイズを付加する単純な特徴雑音法を,理論的に導入し,理論的に実証する。
論文 参考訳(メタデータ) (2023-08-03T08:31:31Z) - Dynamics-Aware Loss for Learning with Label Noise [73.75129479936302]
ディープニューラルネットワーク(DNN)にラベルノイズが深刻な脅威をもたらす
本稿では,この問題を解決するためにDAL(Dynamics-Aware Los)を提案する。
詳細な理論的解析と広範な実験結果の両方が,本手法の優位性を示している。
論文 参考訳(メタデータ) (2023-03-21T03:05:21Z) - Robust Training of Graph Neural Networks via Noise Governance [27.767913371777247]
グラフニューラルネットワーク(GNN)は、半教師付き学習のモデルとして広く使われている。
本稿では,グラフノード上のラベルがうるさいだけでなく,難易度も低い重要なシナリオについて考察する。
本稿では,ラベルノイズを明示的に制御する学習により,ロバスト性を向上する新しいRTGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-12T09:25:32Z) - Feature Overcorrelation in Deep Graph Neural Networks: A New Perspective [44.96635754139024]
オーバースムーシングは、深いGNNの性能を制限する重要な問題の1つとして特定されている。
本稿では, 深部GNNの性能劣化, すなわち, 機能の過度な相関について考察する。
特徴相関を低減するために,GNNが冗長な情報をエンコードすることを促進できる汎用フレームワークであるDeCorrを提案する。
論文 参考訳(メタデータ) (2022-06-15T18:13:52Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - NRGNN: Learning a Label Noise-Resistant Graph Neural Network on Sparsely
and Noisily Labeled Graphs [20.470934944907608]
グラフニューラルネットワーク(GNN)は,ノード分類などのグラフ上の半教師付き学習タスクに対して,有望な結果を得た。
多くの実世界のグラフはスパースでノイズの多いラベルが付けられており、GNNの性能を著しく低下させる可能性がある。
半教師付きノード分類のためのラベルノイズ耐性GNNを提案する。
論文 参考訳(メタデータ) (2021-06-08T22:12:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。