論文の概要: EiX-GNN : Concept-level eigencentrality explainer for graph neural
networks
- arxiv url: http://arxiv.org/abs/2206.03491v1
- Date: Tue, 7 Jun 2022 07:45:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 12:31:30.326535
- Title: EiX-GNN : Concept-level eigencentrality explainer for graph neural
networks
- Title(参考訳): EiX-GNN : グラフニューラルネットワークのための概念レベル固有分散説明器
- Authors: Pascal Bourdon (XLIM-ASALI), David Helbert (XLIM-ASALI), Adrien Raison
- Abstract要約: 本稿では,グラフニューラルネットワークモデルに適したソーシャルアウェアの説明手法を提案する。
我々の手法は、説明プロセスの根底にある人間依存的な側面を考慮に入れている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining is a human knowledge transfer process regarding a phenomenon
between an explainer and an explainee. Each word used to explain this
phenomenon must be carefully selected by the explainer in accordance with the
current explainee phenomenon-related knowledge level and the phenomenon itself
in order to have a high understanding from the explainee of the phenomenon.
Nowadays, deep models, especially graph neural networks, have a major place in
daily life even in critical applications. In such context, those models need to
have a human high interpretability also referred as being explainable, in order
to improve usage trustability of them in sensitive cases. Explaining is also a
human dependent task and methods that explain deep model behavior must include
these social-related concerns for providing profitable and quality
explanations. Current explaining methods often occlude such social aspect for
providing their explanations and only focus on the signal aspect of the
question. In this contribution we propose a reliable social-aware explaining
method suited for graph neural network that includes this social feature as a
modular concept generator and by both leveraging signal and graph domain aspect
thanks to an eigencentrality concept ordering approach. Besides our method
takes into account the human-dependent aspect underlying any explanation
process, we also reach high score regarding state-of-the-art objective metrics
assessing explanation methods for graph neural networks models.
- Abstract(参考訳): 説明は、説明者と説明人の間の現象に関する人間の知識伝達プロセスである。
この現象を説明するために使用される各単語は、その現象の説明者から高い理解を得るために、現在の説明者現象関連知識レベル及び現象自体に応じて、説明者によって慎重に選択されなければならない。
現在、深層モデル、特にグラフニューラルネットワークは、重要な応用においても日常生活において重要な位置を占めている。
このような文脈において、これらのモデルは、センシティブなケースでそれらの使用の信頼性を向上させるために、説明可能であるとも言われる人間の高い解釈性を持つ必要がある。
説明はまた、人間の依存的なタスクであり、深いモデル行動を説明する方法には、利益と品質の説明を提供するためのこれらの社会的関心が含まれる必要がある。
現在の説明方法は、しばしばその説明を提供する社会的側面を阻害し、質問のシグナル的側面のみに焦点を当てている。
本稿では,この社会的特徴をモジュラー概念生成器として,および固有分散概念順序付けアプローチにより信号領域とグラフ領域の側面を活用することにより,グラフニューラルネットワークに適した信頼性の高いソーシャル・アウェア説明手法を提案する。
本手法は,説明過程の背後にある人間依存的な側面を考慮に入れつつ,グラフニューラルネットワークモデルの説明方法を評価する客観的指標について高いスコアを得る。
関連論文リスト
- Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Quantifying the Intrinsic Usefulness of Attributional Explanations for
Graph Neural Networks with Artificial Simulatability Studies [1.2891210250935146]
人工的なシミュラビリティの研究をグラフニューラルネットワークの領域に拡張する。
コストのかかる人為的な試行の代わりに、説明監督可能なグラフニューラルネットワークを使用して、シミュラビリティーの研究を行います。
関連する説明は、グラフニューラルネットワークのサンプル効率を大幅に向上させる可能性がある。
論文 参考訳(メタデータ) (2023-05-25T11:59:42Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Mapping Knowledge Representations to Concepts: A Review and New
Perspectives [0.6875312133832078]
本論は、内部表現と人間の理解可能な概念を関連付けることを目的とした研究に焦点をあてる。
この分類学と因果関係の理論は、ニューラルネットワークの説明から期待できるもの、期待できないものを理解するのに有用である。
この分析は、モデル説明可能性の目標に関するレビューされた文献の曖昧さも明らかにしている。
論文 参考訳(メタデータ) (2022-12-31T12:56:12Z) - Global Concept-Based Interpretability for Graph Neural Networks via
Neuron Analysis [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ関連タスクに非常に効果的である。
解釈性と透明性が欠如している。
現在の説明可能性のアプローチは一般的にローカルで、GNNをブラックボックスとして扱う。
本稿では,ニューロンレベルの概念を用いたGNNのグローバルな説明を創出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-22T21:30:55Z) - An explainability framework for cortical surface-based deep learning [110.83289076967895]
我々は,皮質表面の深層学習のためのフレームワークを開発した。
まず,表面データに摂動に基づくアプローチを適用した。
我々の説明可能性フレームワークは,重要な特徴とその空間的位置を識別できるだけでなく,信頼性と有効性も示している。
論文 参考訳(メタデータ) (2022-03-15T23:16:49Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Combining Sub-Symbolic and Symbolic Methods for Explainability [1.3777144060953146]
GNN意思決定プロセスに関する洞察を提供するために、いくつかのサブシンボリックアプローチが開発されている。
これらは、可能性を説明するための最初の重要なステップですが、生成された説明は、AIの専門家でないユーザにとって理解しがたいものです。
サブシンボリックな手法とシンボリックな手法を組み合わせた概念的アプローチを人間中心の説明に導入する。
論文 参考訳(メタデータ) (2021-12-03T10:57:00Z) - A Heterogeneous Graph with Factual, Temporal and Logical Knowledge for
Question Answering Over Dynamic Contexts [81.4757750425247]
動的テキスト環境における質問応答について検討する。
構築したグラフ上にグラフニューラルネットワークを構築し,エンドツーエンドでモデルをトレーニングする。
論文 参考訳(メタデータ) (2020-04-25T04:53:54Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。